Schaut jemand traurig oder fröhlich, verärgert oder überrascht? Was die meisten Menschen mit einem Blick erfassen, fällt Autisten extrem schwer. Meist müssen sie langwierig lernen, was ein Lächeln oder Stirnrunzeln bedeutet. Eine Software des Fraunhofer-Instituts in Erlangen könnte autistischen Menschen den Alltag erleichtern. In eine Datenbrille eingebaut, zeigt sie dem Träger nicht nur, ob sein Gegenüber eine Frau oder ein Mann ist und sein ungefähres Alter. Auch grundlegende Emotionen kann das Programm erkennen und anzeigen. Bei einem breiten Lächeln zeigt sich neben dem Wort «Happy» ein roter Balken. Formt sich der Mund zu einem O und werden die Augen aufgerissen, soll der Balken bei «Surprised» ausschlagen. Perfekt funktioniert das Ganze zwar nicht, doch die Fraunhofer-Software «Shore» (Sophisticated high speed object recognition engine) und ähnliche Programme liegen zumindest bei den sogenannten Basis-Emotionen Ärger, Trauer, Angst, Freude, Überraschung und Ekel ziemlich richtig. «Studien haben gezeigt, dass diese in etwa 90 Prozent der Fälle korrekt angezeigt werden», sagt die Berliner Emotionsforscherin Isabel Dziobek. Und das ist schon erstaunlich, denn «Menschen können um die 100 Emotionen im Gesicht ausdrücken», wie die Psychologin sagt.
Jens Garbas vom Erlanger Fraunhofer-Institut und sein Team arbeiten seit rund zehn Jahren an der Software. Das Prinzip dahinter ist maschinelles Lernen. Die Forscher haben das Programm mit mehr als 30.000 Beispielbildern gefüttert und hinterlegt, ob Mann oder Frau zu sehen ist, wo sich Mund, Nase und Augen befinden und welche Emotion gerade zu sehen ist. Von Konsumforschern wird die Software bereits zur Werbewirkungs- und Marktforschung eingesetzt. Sie können damit etwa erfassen, wie Menschen auf einen Spot reagieren und welche Szenen positiv oder negativ bewertet werden. Es gibt Fotoapparate, die erst auslösen, wenn das Motiv lächelt. Auch in Geschäften wird solche Software genutzt. Die Läden können so erfahren, ob eher Frauen oder Männer kommen, in welchem Alter die Kunden sind, zu welcher Tageszeit sie kommen und wie sich die Kunden im Geschäft bewegen. Ein Schild zur Videoüberwachung reiche hier als Hinweis, erklärt Garbas. «Die bloße Auswertung ist hier ein geringerer Eingriff, als wenn die Daten gespeichert würden.» Auch Display-Werbung, die auf den Betrachter reagiert, gibt es längst. Mensch-Roboter mit der Software fragen: «Sie schauen so traurig. Soll ich Ihnen einen Witz erzählen?»
Die Forscher haben noch viele weitere Ideen. «Die Software könnte überall genutzt werden, wo Menschen mit Maschinen interagieren», sagt Garbas. Oder auch im Sicherheitsbereich: Wenn erfasst werden soll, «welche mittlere Einstellung eine Menschenmasse hat». Ziel ist, dass die Software immer feiner zwischen Emotionen unterscheiden kann – etwa ob ein Lächeln echt ist oder gespielt. Bei einem richtigen Lächeln zeigen sich Fältchen um die Augen. Mehr Muskeln sind aktiv. Die neueste Idee der Erlanger ist, die Software auf eine Datenbrille aufzuspielen und so für Autisten zu nutzen. Friedrich Nolte vom Bundesverband zur Förderung von Menschen mit Autismus hält die Idee grundsätzlich für sinnvoll. So eine Brille könne Autisten helfen, wenn sie zu einem Termin mit Fremden gehen: «Wenn man die Leute nicht kennt, ist es schwieriger, ihre Gefühle einzuschätzen.» Dennoch bleibe die Brille eine Krücke. Nolte hält es für sinnvoller, Autisten mit Übungsprogrammen beizubringen, Emotionen selbst zu erkennen. «Eine Sprache zu lernen ist natürlich besser als einen Simultanübersetzer daneben stehen zu haben», sagt er.—pagebreak—
An solchen Programmen arbeitet Isabel Dziobek. Mit der Software kann man trainieren, 40 Gefühle zu erkennen – etwa indem man die obere und die untere Hälfte eines Gesichts zusammensetzt. Die Gefühle wurden in knapp 8.000 Video- und Audiosequenzen von 70 Schauspielern dargestellt. Mit der Software könnten nicht nur Autisten üben, sondern auch Menschen in Berufen bei Zoll, Polizei oder Pflege, die Gefühle besonders genau erkennen müssen, sagt Dziobek.
Datenschutz-Probleme sieht der Fraunhofer-Forscher Garbas nicht. «Die ganze Berechnung findet im Gerät statt, und die Info wird ohne Bezug zur Person gespeichert.» Identifiziert werden die Menschen also nicht. Auch Miriam Meder vom bayerischen Landesamt für Datenschutzaufsicht sieht wenig Probleme, weil keine Daten die Brille verlassen. Eine Einverständniserklärung der Nutzer sei nur nötig, wenn Bilddaten oder andere personenbezogene Daten gespeichert oder weitergegeben würden oder wenn ein Drittanbieter etwa einer App hinzukomme. (dpa)