Mensch-Technik-Interaktion mittels Freiraumgesten

Mit Industrie 4.0 gewinnt die Mensch-Technik-Interaktion deutlich an Stellenwert. Sollen Mensch und Maschine gemeinsam arbeiten, dann sind alternative Interaktionsformen zu entwickeln, z. B. die Gestensteuerung. Die menschliche Kommunikation findet auch akustisch und visuell statt und wird zusammengehörig interpretiert. Ausgehend von dem Nutzerverständnis - Zeigen wird als statische Geste verstanden - wurde eine technisch nutzbare Beschreibung entwickelt, die sich bereits erfolgreich in die Praxis übertragen ließ. Auf Grundlage eines Phasenmodells der Gestenausführung wurden zwei weitere Beschreibungen entwickelt, die den gesamten Gestenzyklus aus Einleitung, Hauptteil, Haltephase und Ausleitung betrachtet. Mit den Daten einer Kinect® 2 konnten mit dieser Phasendefinition Erkennungsraten von über 85 % realisiert werden. Für eine Verbesserung der Erkennungsrate ist es zukünftig notwendig, weitere Gesten wie das "Heranwinken" zu beschreiben, um sie vom "Zeigen" abzugrenzen.

Human-Machine-Interaction will be significant for future development in Human-Robot-Collaboration. Humans and robots should interact like colleagues. In any case the human has to control the robot.To realize interaction procedures, well known from interhuman communications like pointing, humans use visual and auditory sense as well as their cognitive skills. Human pointing may be supported by speech like "the green folder over there". Human know a "folder" and can evaluate, if the folder is "green". The words "over there" let then know that the next movement, the next body posture will be a pointing gesture. With all these skills the detection rate will be nearly 100 %. Using the pointing gesture for technically controlling a robot, this additional knowledge is not available yet. In this thesis three algorithms to detect pointing with a simple visual sensor like Kinect® 2 have been developed. Even without the additional knowledge the detection rate is up to 85 %. The test persons of an acceptance survey attest that pointing is looked at as a static body posture. The first developed algorithm detects pointing with a defined (static) body posture. A detection rate of about 50 % could be reached. The static algorithm has been implemented for a lifting and carrying robot during an industiral research project and works very well. Performing a gesture is a complete (dynamic) movement cycle. For the two other algorithms all phases, introduction, stroke, post-stroke hold and release have to be performed. With the data of 15 test persons (302 gestures) a detection rate of 85 % could be reached by using those phase-definitions. To increase the detection rate it will be necessary to add other gesture detection algorithms (e.g. to detect waving). This could improve the decision to reject a pointing gesture. Detecting the pointing destination and to evaluate whether it is equivalent to the searched object will increase the accuracy additionally.

Mit Industrie 4.0 gewinnt die Mensch-Technik-Interaktion deutlich an Stellenwert. Sollen Mensch und Maschine gemeinsam arbeiten, dann sind alternative Interaktionsformen zu entwickeln. Erfolgreiche Kommunikation bedeutet, dass beide Kommunikationspartner zum Kommunikationsende den gleichen Informationsstand haben. Die natürliche, menschliche Kommunikation findet auf verschiedenen Ebenen (z.B. visuell und akustisch) statt, welche zusammengehörig gedeutet werden. An der redebegleitenden Zeigegeste lässt sich das Zusammenspiel von gesprochenem Wort, ausgeführter Zeigegeste und kognitiver Leistung des Empfängers gut erkennen. Der "grüne Ordner da drüben" fordert vom Empfänger neben der rein sensorischen Aufgabe des Hörens und Sehens die zusätzliche, wissensbasierte Verarbeitung von "grün" und "Ordner". Mit all diesen Informationen erreicht die gestenunterstützte Mensch-Mensch-Kommunikation eine Erkennungsrate von annähernd 100 %. Sollen für die Mensch-Technik-Kommunikation "Zeigegesten" verwendet werden, sind die zusätzlichen Kontext-Informationen z.Z. für die technische Auswertung noch nicht verfügbar. Daher wurden Beschreibungen der Zeigegeste entwickelt und evaluiert, mit denen bereits ohne Interpretation der Kontextinformation eine Gesamterkennungsrate vonüber 85 % realisiert werden kann. Ausgehend von dem Nutzerverständnis - Zeigen wird als statische Geste verstanden - wurde eine technisch nutzbare Beschreibung entwickelt. Diese, nur die Körperpose des Zeigens auswertend, erreicht bei der Evaluation eine Erkennungsrate von ca. 50 %. Sie ließ sich bereits im Rahmen eines Forschungsprojektes erfolgreich in die Praxisübertragen. Auf Grundlage eines Phasenmodells der Gestenausführung wurden zwei weitere Beschreibungen entwickelt. Bei diesen wird der gesamte Gestenzyklus aus Einleitung, Hauptteil, Haltephase und Ausleitung betrachtet. Mit den Daten der für die Evaluation eingesetzten Kinect® 2 konnten mit den erweiterten Phasendefinitionen Erkennungsraten vonüber 85 % realisiert werden. Für eine Verbesserung der Erkennungsrate ist es zukünftig notwendig, weitere Gesten wie das "Heranwinken" zu beschreiben, um sie vom "Zeigen" abzugrenzen. Zusätzlich muss das Zeigeziel erkannt und anhand der Kontextinformation überprüft werden können.

Zitieren

Zitierform:
Zitierform konnte nicht geladen werden.

Rechte

Nutzung und Vervielfältigung:
Alle Rechte vorbehalten