Für meine Doktorarbeit habe ich untersucht, wie sich verschiedene Faktoren auf die Rederechtsvergabe im Dialog auswirken und wie diese Mechanismen für künstliche Charaktere umgesetzt werden können. Der Schwerpunkt lag dabei auf Verhaltensmustern, welche die Persönlichkeit und die Beziehung zum Gesprächspartner ausdrücken.
Dieser Demonstrator eines Gesundheitsberaters wurde von Hannes Ritschel, Andreas Seiderer und mir für eine öffentliche Veranstaltung zur Präsentation von Forschungsprojekten aus der Region erstellt.
Später habe ich eine Studentengruppe betreut, welche diesen Demonstrator den Einwohnern mehrerer Altenheime vorstellte, um anschließend auf dieser Grundlage über mögliche Einsatzgebiete und Anforderungen dieser Zielgruppe zu diskutieren.
Hierbei habe ich zwei Studenten betreut, welche einen emotionalen Spielgefährten programmiert haben. Dafür wurden zwei verschiedene Persönlichkeiten modelliert - ein freundlicher Mitspieler und ein feindseliger Rivale - welche unterschiedlich auf Ereignisse im Spiel reagieren und dies sowohl sprachlich als auch über die Mimik ausdrücken.
Mit dieser Anwendung wurde für das Projekt "ForGenderCare" untersucht, wie ältere Menschen mit sozialen Robotern interagieren.
Zu den einfachsten Empathie-Mechanismen gehört das Widerspiegeln von beobachteten Emotionen. In diesem Projekt habe ich die Mimiksteuerung für den verwendeten Roboter mitentwickelt und Regeln aufgestellt, die das Timing und die Auswahl emotionaler Kommentare bestimmen.
Bei diesem Projekt ging es vor allem um die Klärung von Mehrdeutigkeiten in der Zusammenarbeit zwischen Mensch und Roboter durch die Kombination von Blickrichtung und Sprache.
Meine Aufgaben hierbei waren unter anderem die Erstellung der Dialog-Logik und Recherchen zum Timing des Blickverhaltens.
In meiner Masterarbeit habe ich untersucht, wie man mittels Spracheingabe und Ganzkörper-Gesten mit einer virtuellen Welt interagieren kann. Dabei habe ich vier verschiedene Aktionskategorien betrachtet: Navigation, Auswahl, Objekt-Manipulation und Dialog mit NPCs. Bei der Nutzerstudie hat sich gezeigt, dass für diese Aufgaben jeweils unterschiedliche Eingabemethoden bevorzugt werden.
Aufbauend auf meinen Hiwi-Aufgaben habe ich in meiner Bachelor-Arbeit Regeln berechnet, um Mimik und Blickrichtung basierend auf der aktuellen Gefühlslage eines virtuellen Agenten zu generieren. Dazu habe ich die Dimensionen "Pleasure" und "Dominance" aus Mehrabians PAD-Modell sowohl auf das Facial Action Coding System als auch auf die Richtungen abgebildet, in die der Agent den Blick abwendet.
Entstanden während meiner Hiwi-Zeit. Zusammen mit Ionut Damian und Dominik Sollfrank habe ich ein virtuelles Tennis-Publikum programmiert, das emotional auf das Spielgeschehen reagiert. Meine Aufgabe dabei war es, die verschiedenen Gefühlsausdrücke zu erstellen und Regeln zu schreiben, welche zur Laufzeit die passende Animation auswählen. Mit dieser Anwendung haben wir auf der IVA 2009 den Publikumspreis im angeschlossenen "GALA"-Wettbewerb gewonnen.
Copyright © Kathrin Janowski, 2024. Alle Rechte vorbehalten.