In welchem Produktions-Schritt befindet sich der einzelne Mitarbeiter gerade? Wie agiert er an Montageplätzen und Werkbänken und mit welcher Strategie löst er eine Aufgabe? Welche Arbeitswege hat er, wie schnell geht er, was belastet ihn ergonomisch?

Je flexibler und unvorhersehbarer eine Produktion wird und je unstrukturierter der einzelne Arbeitsplatz, desto wertvoller ist dieses Wissen. Es ist der Rohstoff für eine Produktion, die auf neue Assistenzsysteme angewiesen ist.

PROFACTOR extrahiert dieses Prozesswissen mit Deep Learning-Methoden. Die Eigenentwicklung Assembly Eye macht es möglich, den Menschen und seine Aktivitäten ohne invasive Sensorik zu tracken: Die Bewegung der Person im Raum, das Agieren an Werkbänken und die Interaktion mit Werkzeugen, Bauteilen und Maschinen. Anwendung findet diese Technologie bei der Prozessqualitätssicherung, bei der Dokumentation von Prozessen und der Optimierung von Arbeitsabläufen. Produktionssysteme werden letztendlich befähigt, Handlungsabfolgen zu verstehen und adäquate, unaufdringliche Assistenzfunktionen in Echtzeit zu bieten. Eine weitere Anwendung ist die Bedienerführung mittels Projektion auf Bauteilen: dann, wann der Mitarbeiter sie braucht und beschränkt auf das Wesentliche.

Das Assembly Eye digitalisiert und versteht mensch-zentrierte Prozesse

Das Assembly Eye verwendet eine Standardkamera. Mit zugehöriger Software von PROFACTOR kann es aus den Bilddaten die Bewegungen der einzelnen Akteure im räumlichen und zeitlichen Kontext extrahieren und Relevantes für den Prozessablauf digitalisieren. Je nach Bedarf ist dies die Basis für (Echtzeit-) Analysetools oder auch Input für die trainierbare Systemintelligenz (Deep Learning-Methodik).

AEYE - Visual Large-scale Industrial Interaction Processing (UbiComp 2019)

ansprechpartner_hbauer_visualcomputing_web

Ihr Ansprechpartner

DI(FH) Harald Bauer

Head of Visual Computing

+43 7252 885 302
harald.bauer@nullprofactor.at

Gerne antworten wir…

… auf Ihre Fragen