Technologielabor für die humanzentrierte, assistive Produktion der Zukunft

Ziel des Projekts ist der Aufbau eines vernetzten Technologie-Laboratoriums zur Entwicklung und Erprobung neuartiger, assistiver Technologien, Methoden und Konzepte für eine künftige digitale humanzentrierte Produktion.

Hauptzielsetzung ist der Aufbau wissenschaftlicher Expertise in den folgenden Themenfeldern:

  • Intuitive Interaktion und innovative BedienerInnen Assistenz
  • Kognitive Systeme im industriellen Produktionsprozess
  • Situative Entscheidungsunterstützung für die Systemauslegung
  • Mensch Roboter Kooperation in der Fertigung

Im Smart Factory Labor ist ein Demonstrationsarbeitsplatz aufgebaut, welcher neue Möglichkeiten zur Bedienerführung bzw. Interaktionsmöglichkeiten zwischen Mensch und Maschine zeigt. Besondere Bedeutung hierbei hat die ‚Useability‘ für den Mitarbeiter in der Produktion. Die Entlastung  des Mitarbeiters ist oberstes Ziel.

Exemplarische Arbeitsabläufe im Produktionskontext werden durch dynamische Projektion direkt auf den Arbeitsbereich oder das Bauteil angeleitet. Der Mitarbeiter wird geführt und ‚die Bedienungsanleitung für den aktuellen Bauplan‘ wird im direkt im Arbeitsbereich eingeblendet. Für zusätzliche Systemintelligenz dient eine 3D Sensorik, welche mittels Objeklageerkennung bzw. Objekttracking (2D oder 3D) permanent das Bauteil bzw. die Hände des Werkers im Auge behält und somit dynamisch den Projektionsinhalt verändern kann. Alternative bzw. komplementäre Technologien werden laufend evaluiert und gegenübergestellt; das Grundkonzept mit neueren Endgeräten umgesetzt basiert beispielsweise auf der Kombination aus einem Trackingsystem und einer Datenbrille.

Für intuitivere Benutzereingaben (Mensch zu Maschine Kommunikation) werden Tasten und Eingabemöglichkeiten in den unmittelbaren Arbeitsbereich (z.B. mittels Projektion) des Produktionsmitarbeiters verlagert, welcher dann durch einfache Gesten oder ganz natürlichen Bewegungen die entsprechenden Maschinen und (Assistenz-)Werkzeuge triggern kann.

Im Allgemeinen wird in diesem Themenbereich großer Wert darauf gelegt mit low-cost Ansätzen und entsprechender Systemintelligenz dem Mitarbeiter komplexe Produktion möglichst einfach zu gestalten.

Für die visuelle Prüfung von kompliziert geformten Bauteilen wird ein Inspektionsroboter eingesetzt, der den Bauteil unter dem jeweiligen Prüfsystem positioniert und in ein einer kontinuierlichen Scan-Bewegung die gesamte Oberfläche erfasst. In der Prüfzelle sind verschiedene Sensoren integriert:

Der Faserwinkelsensor „FScan“ prüft die Verläufe von Fasern auf Verbundbauteilen aus Karbon- oder Glasfaser und ermöglicht die Detektion von Defekten, wie Einschlüssen im Bauteil.

Der Sensor „LScan“ wird für die Überwachung von Ablegeprozessen („Automated Fiber Placement“) von CFK-Bauteilen verwendet, und detektiert typische Abweichungen im Prozess wie gaps, overlaps, twisted tows oder fuzzballs.

Der „TP-Scan“ Sensor wird für die Prüfung von metallischen Oberflächen eingesetzt und erlaubt eine sichere Unterscheidung von Lunkern, Kratzern oder Beschädigungen, die als Fehler erkannt werden sollen, und Verschmutzungen oder Verfärbungen, die akzeptable Abweichungen darstellen. Die Roboterbewegung für die jeweilige Prüfaufgabe wird auf Basis des CAD Modells des Bauteils und eines physikalischen Modells des Prüfprozesses automatisch kollisionsfrei geplant.

In diesem Themenfeld werden Technologien der Verteilten Künstlichen Intelligenz auf ihre Anwendbarkeit in Produktionsprozessen untersucht. Insbesondere die Teilbereiche Multi-Agenten-Systeme, Actor-Systeme, Holonik und Semantische Interoperabilität werden hier untersucht und ein Demonstrator entwickelt.

Im Mittelpunkt steht die Interaktion von Mensch und Maschine / Robotersystemen im gemeinsamen Arbeitsraum .

Die Demonstratoren im  Smart Factory LAB ermöglichen das schnelle und einfache Erstellen von verschiedener Arbeitsprozesse mit dem Roboter. Ziel ist es, die Systeme binnen wenigen Minuten auch von Nicht-Experten programmiert werden können. Interaktive Bedienung durch Mixed Reality Interaktion aber auch einfache  „Drag & Drop“ Funktionen erleichtern das Erstellen und Einfügen neuer Skills (Fähigkeiten) am Robotersystem.

Ihr Ansprechpartner

DI (FH) Harald Bauer
Head of Visual Computing

+43 7252 885 302
harald.bauer@nullprofactor.at

Gerne antworten wir…

… auf Ihre Fragen

Dieses Projekt wird aus Mitteln des Europäischen Fonds für regionale Entwicklung kofinanziert.

Nähere Infos finden Sie unter: www.efre.gv.at