Der Mensch ist ein offenes Buch.

Die Emotionen eines Menschen sind für andere Menschen oft leicht erkennbar. Doch wie kann eine Technologie Gefühle wahrnehmen? Kyandoghere Kyamakya entwickelt Systeme zur automatischen Emotionserkennung.

In welchen Bereichen brauchen wir die technische Emotionserkennung?
Überall dort, wo Mensch und Maschine kommunizieren oder zusammenarbeiten: Betrachten wir zum Beispiel die Assistenzsysteme, die in Autos oder in der Industrie zum Einsatz kommen. Der Mensch hat eine dynamische Gefühlslage; mal ist er grantig, mal fröhlich, mal unter Stress. Es ist zum Vorteil für den Menschen, wenn die Maschine diese Gefühle erkennt und darauf reagieren kann.

Kommen solche Technologien schon zum Einsatz?
Sie sind vielfach noch nicht ausgereift, aber da, wo viel Geld umgesetzt wird, gibt es sie schon, beispielsweise in der Spieleindustrie. Da ist man auch noch tolerant, was die Qualität der Emotionserkennung betrifft.

Welche Sensoren brauchen wir dafür?
Es gibt Sensoren, die unseren Körper berühren oder an ihm befestigt sind. Diese nehmen wir in der Regel als störend wahr. Besser ist es, wenn visuelle Kameras, Infrarotsensoren, Mikrofone etc. so verbaut sind, dass sie aus der Ferne ein Bild, meine Temperatur oder meine Stimme aufnehmen und analysieren.

Wenn meine Gefühle auf diesem Wege analysiert werden, kann ich das auch als gruselig empfinden. Wie schätzen Sie das ein?
Es wird ethische und rechtliche Reglements brauchen, das ist unbestritten. Letztlich glaube ich aber, dass der Mensch ein offenes Buch ist. Das Gegenüber hört zwar, was ich sage, ein Großteil des Eindrucks wird aber über die nonverbale Kommunikation vermittelt, die wir automatisch decodieren. Wir Menschen haben hierzu eine wunderbare Kompetenz. Wir wollen diese Fähigkeit auch an Maschinen vermitteln.

Menschen sind ja verschieden in der Ausdrucksweise ihrer Gefühle. Kann das überhaupt gelingen?
Ja, es ist relativ einfach, eine Auswertung zu erstellen, die individuell auf eine Person zugeschnitten ist. Das schaffen wir mittlerweile mit einer Genauigkeit von sogar über 95 Prozent, beispielsweise bei der Analyse der Stimme. Die Herausforderung ist aber die universelle Anwendung, die dann für alle gleichermaßen funktionieren soll.

Kann man wirklich Wut von Trauer unterscheiden? Welchen Feinheitsgrad wollen Sie erreichen?
Grob unterscheiden wir positive und negative Emotionen und diese kategorisieren wir dann nach ihrer Intensität, die bis zu zwölf Stufen umfassen kann. Der binäre Blick auf positiv/neutral/negativ gelingt in rund 90 Prozent der Fälle schon gut; alles andere hat noch eine deutlich geringere Trefferwahrscheinlichkeit von rund 70 Prozent.

Wie lernt denn eine Technik die Emotionen zu lesen?
Zuallererst brauchen wir Refererenzdaten von möglichst vielen Menschen. Das heißt, wir müssten im Idealfall Millionen Menschen zum Lachen bringen, sie weinen lassen und sie wütend machen. Ihre Reaktionen müssten wir mit Sensoren aufnehmen. Die Erstellung eines solchen Datenpools ist aber sehr, sehr teuer und kaum umzusetzen. Deshalb nimmt man eher 100 Menschen, die viele Persönlichkeitstypen abdecken, und untersucht sie in einem solchen Setting. Instrumente aus der Künstlichen Intelligenz können dann daraus einige 100.000 weitere künstliche Datensätze erstellen. Mit einem solchen umfassenderen Datensatz können wir dann den Erkennungsalgorithmus viel besser trainieren. Zur Anwendung kommt Deep-Learning. Da gibt es noch viele harte Nüsse, die es zu knacken gilt.

Menschen bleiben doch trotzdem unberechenbar, oder?
Nehmen wir als Beispiel den autofahrenden Menschen in verschiedenen Verkehrssituationen. Wenn die Reaktionen der Fahrer*innen in bestimmten Situationen erfasst und in einer Zentrale analysiert werden, entsteht eine kollektive Intelligenz, die alle nutzen können. Später kann man von dem Wissen profitieren, dass man – wenn man ein bestimmter Typ ist – in dieser oder jener Verkehrssituation sehr gestresst ist. Solche Technologien können hilfreich sein; ob sie in der Realität aber immer verlässlich funktionieren, ist eine andere Frage. Wir sehen das bei den Datensätzen: Mein Algorithmus kann für den Datenpool funktionieren, aber mit echten Menschen wieder nicht.

Gefühle schwanken ja auch sehr stark.
Ja, deshalb geht es nicht nur um den Zeitpunkt der Messung, sondern noch viel interessanter wäre eine Prognose, wie sich jemand in den nächsten 30 Sekunden fühlen wird.

Für ad astra: Romy Müller

Zur Person



Kyandoghere Kyamakya ist seit 2005 Professor am Institut für Intelligente Systemtechnologien an der Universität Klagenfurt. Er hat an der Université de Kinshasa (Kongo) Elektrotechnik studiert und sein Doktorat an der FernUniversität in Hagen abgeschlossen. Nach vier Jahren in der Industrie hatte er von 2002 bis 2005 eine Stelle als Juniorprofessor an der Universität Hannover inne. Seine Schwerpunkte liegen in den Bereichen Neurocomputing, Deep Learning, Cellular Neural Networks, Intelligente Transportsysteme u. v. m. 2021 erschien bei Sensors das Buch „Emotion and Stress Recognition Related Sensors and Machine Learning Technologies“, das er gemeinsam mit Fadi Al-Machot, Ahmad Haj Mosa, Hamid Bouchachia, Jean Chamberlain Chedjou und Antoine Bagula herausgegeben hat.