Dauer: | 2013 - 2014 |
Beteiligte Wissenschaftler: | Gregor Mehlmann, Kathrin Janowski, Markus Häring |
Bei dieser Anwendung hatte der Mensch die Aufgabe, verschiedene Objekte auf die vorgegebenen Felder zu legen. Die Anweisungen des Roboters waren dabei absichtlich mehrdeutig gehalten, um den Nutzer zum Nachfragen anzuregen.
Durch die Eye-Tracking-Brille, welche der Nutzer trug, sowie spezielle Markierungen auf den Objekten, war das System in der Lage zu erkennen, welches Objekt dieser gerade betrachtete. Dadurch war der Roboter wiederum in der Lage, Mehrdeutigkeiten in der gesprochenen Frage des Menschen aufzulösen, um korrekt zu antworten.
Außerdem ermöglichte diese Information dem Roboter, Blickverhalten zu zeigen, welches die geteilte Aufmerksamkeit veranschaulichte. Beispielsweise folgte er dem Blick des Menschen, um seine Aufmerksamkeit zu zeigen, oder nahm Blickkontakt auf, wenn dieser den Roboter ansah.
Dieser Blickkontakt diente außerdem als Signal für die Rederechtsvergabe. Wenn der Nutzer eine Frage stellte, wartete der Roboter mit seiner Antwort, bis dieser ihn direkt ansah. All diese Verhaltensweisen dienten dazu, sich auf ein gemeinsames Hintergrundwissen zu verständigen, um Missverständnisse zu vermeiden oder zumindest schnell aus der Welt zu schaffen.
"Modeling Grounding for Interactive Social Companions"
Gregor Mehlmann, Kathrin Janowski, Elisabeth André
Zeitschrift "KI – Künstliche Intelligenz", Sonderausgabe "Companion Technologies" (Springer)
SpringerLink | BibTeX | PDF
"Modeling Gaze Mechanisms for Grounding in HRI"
Gregor Mehlmann, Kathrin Janowski, Tobias Baur, Markus Häring, Elisabeth André, Patrick Gebhard
21st European Conference on Artificial Intelligence (ECAI 2014)
Copyright © Kathrin Janowski, 2024. Alle Rechte vorbehalten.