
Doktorarbeit
Für meine Doktorarbeit habe ich untersucht, wie sich verschiedene Faktoren auf die Rederechtsvergabe im Dialog auswirken und wie diese Mechanismen für künstliche Charaktere umgesetzt werden können. Der Schwerpunkt lag dabei auf Verhaltensmustern, welche die Persönlichkeit und die Beziehung zum Gesprächspartner ausdrücken.

Drink-O-Mender
Dieser Demonstrator eines Gesundheitsberaters wurde von Hannes Ritschel, Andreas Seiderer und mir für eine öffentliche Veranstaltung zur Präsentation von Forschungsprojekten aus der Region erstellt.
Später habe ich eine Studentengruppe betreut, welche diesen Demonstrator den Einwohnern mehrerer Altenheime vorstellte, um anschließend auf dieser Grundlage über mögliche Einsatzgebiete und Anforderungen dieser Zielgruppe zu diskutieren.

RoboGames
Hierbei habe ich zwei Studenten betreut, welche einen emotionalen Spielgefährten programmiert haben. Dafür wurden zwei verschiedene Persönlichkeiten modelliert - ein freundlicher Mitspieler und ein feindseliger Rivale - welche unterschiedlich auf Ereignisse im Spiel reagieren und dies sowohl sprachlich als auch über die Mimik ausdrücken.
Mit dieser Anwendung wurde für das Projekt "ForGenderCare" untersucht, wie ältere Menschen mit sozialen Robotern interagieren.

Empathie-Simulation
Zu den einfachsten Empathie-Mechanismen gehört das Widerspiegeln von beobachteten Emotionen. In diesem Projekt habe ich die Mimiksteuerung für den verwendeten Roboter mitentwickelt und Regeln aufgestellt, die das Timing und die Auswahl emotionaler Kommentare bestimmen.

RobotPuzzle
Bei diesem Projekt ging es vor allem um die Klärung von Mehrdeutigkeiten in der Zusammenarbeit zwischen Mensch und Roboter durch die Kombination von Blickrichtung und Sprache.
Meine Aufgaben hierbei waren unter anderem die Erstellung der Dialog-Logik und Recherchen zum Timing des Blickverhaltens.

Masterarbeit
Speech and Gesture Input for Different Interaction Tasks in a Virtual World
In meiner Masterarbeit habe ich untersucht, wie man mittels Spracheingabe und Ganzkörper-Gesten mit einer virtuellen Welt interagieren kann. Dabei habe ich vier verschiedene Aktionskategorien betrachtet: Navigation, Auswahl, Objekt-Manipulation und Dialog mit NPCs. Bei der Nutzerstudie hat sich gezeigt, dass für diese Aufgaben jeweils unterschiedliche Eingabemethoden bevorzugt werden.

Bachelorarbeit
Gaze Behavior Variations and Facial Expression Generation for Embodied Conversational Agents
Aufbauend auf meinen Hiwi-Aufgaben habe ich in meiner Bachelor-Arbeit Regeln berechnet, um Mimik und Blickrichtung basierend auf der aktuellen Gefühlslage eines virtuellen Agenten zu generieren. Dazu habe ich die Dimensionen "Pleasure" und "Dominance" aus Mehrabians PAD-Modell sowohl auf das Facial Action Coding System als auch auf die Richtungen abgebildet, in die der Agent den Blick abwendet.

Spectators, a joy to watch
Entstanden während meiner Hiwi-Zeit. Zusammen mit Ionut Damian und Dominik Sollfrank habe ich ein virtuelles Tennis-Publikum programmiert, das emotional auf das Spielgeschehen reagiert. Meine Aufgabe dabei war es, die verschiedenen Gefühlsausdrücke zu erstellen und Regeln zu schreiben, welche zur Laufzeit die passende Animation auswählen. Mit dieser Anwendung haben wir auf der IVA 2009 den Publikumspreis im angeschlossenen "GALA"-Wettbewerb gewonnen.