Prof. Johannes Bernarding, Wissenschaftler am Institut für Biometrie und Medizinische Informatik an der Otto-von-Guericke-Universität Magdeburg, erforscht zusammen mit seiner Arbeitsgruppe, wie Computer menschliche Gefühle erkennen können. Im Interview spricht er über den Stand der Forschungen, enorme Herausforderungen und Grausamkeiten, an die keiner gern denken möchte.

Herr Bernarding, werden Maschinen bald genauso Gefühle haben wie Menschen? 

Nein. Darum geht es ja nicht. Wir haben erforscht, welche Rolle menschliche Emotionen in der Interaktion mit Maschinen spielen. Also: Wie könnten Maschinen – und auch Smartphones oder Computer sind Maschinen – zum Beispiel in der Arbeit die Gefühle der Menschen berücksichtigen? Etwa, wenn jemand gestresst, ermüdet oder gelangweilt ist. Dies können Sie ja zum Teil heute schon durch die Überprüfung von Reaktionszeiten tun. Nehmen Sie einen Zugführer. Der muss einen Schalter betätigen, um der Zugsteuerung zu signalisieren, dass er aufmerksam ist. Andernfalls wird der Zug gestoppt.

Wie die Warnhinweise, die es jetzt in Autos gibt? 

Genau. Aber wir sind ja mit unserer Forschung einen Schritt weitergegangen und untersuchen mittels einer Hirn-Computer-Schnittstelle, wie man Computer mit dem menschlichen Hirn verbinden kann.

Und wie kann man das? 

Wir wissen, dass Emotionen unmittelbar mit dem Körper zusammenhängen. Der Puls ändert sich, der Hautwiderstand, die Atmung, die Muskelanspannung oder die Pupillengröße. Wir wollten sehen, was im Gehirn eines Menschen geschieht, wenn er mit einer Maschine in Interaktion tritt. Wir haben sozusagen in das Gehirn von Probanden geschaut, während sie ein von uns entworfenes Computerspiel gespielt haben. Das haben wir beispielsweise mithilfe eines Magnetresonanztomografen getan und konnten erkennen, welche Gehirnareale in bestimmten Situationen aktiviert wurden – etwa, wenn jemand gestresst war oder unterfordert. Dabei messen wir die Hirnaktivitäten in Echtzeit, während die Probanden spielen, und können das Spiel automatisch anpassen, ohne dass der Versuchsleiter etwas machen muss.

Endlich, der Computer versteht meine Gefühle. 

Nun ja, der Computer kann mithilfe einer Software die Aktivierung gewisser Areale im Hirn erkennen, die bei der Verarbeitung von Emotionen eine Rolle spielen.Über Wenn-Dann-Schleifen, also über Entscheidungsalgorithmen, kann der Computer lernen, Reaktionsweisen anzupassen. Im Fokus der Untersuchungen standen Basisemotionen wie Furcht, Angst, Überraschung und Freude. Interessanterweise gibt es als positive Emotion nur die Freude, teilweise kann man Überraschung noch dazuzählen.

Was bringt es, wenn der Mensch sein Hirn mit dem Computer verbindet?

Menschen, die gelähmt sind oder andere schwere Leiden haben, könnten mittels Hirn-Computer-Schnittstellen Rollstühle selbstständig steuern oder Schlaganfall-Patienten könnte beim Trainieren von Aufgaben geholfen werden. Im Arbeitsleben könnten die Maschinen für mehr Zufriedenheit und Sicherheit und für eine bessere Anpassung an die Fähigkeiten der Bediener sorgen. Es sind viele Bereiche denkbar.

Wo kann das hilfreich sein? 

Eigentlich überall, wo die mobilen Endgeräte immer stärker mit dem alltäglichen menschlichen Umfeld zusammenwachsen. In Japan forscht man zum Beispiel viel im Bereich Ambient Assisted Living (AAL). Da setzen sie entweder tatsächlich Roboter oder eben Maschinen mittels Kameras im Raum ein, um ältere Menschen mit Demenz in ihrer Wohnung zu unterstützen. Ein Möbelstück, wie etwa ein Schrank, sagt dann, dass der Teller dort hingehört oder dass Butter gekauft werden muss.

Roboter übernehmen die Altenpflege?

Das ist nicht so einfach. Denn man hat festgestellt, dass zu menschenähnlich gebaute Roboter eine Abwehr beim Menschen erzeugen. Das ist der sogenannte Uncanny-Valley-Effekt. Offensichtlich verspürt der Mensch ein Fremdheitsgefühl bei künstlichen Wesen, die ihm zu ähnlich sind. Es sind ja immer noch Maschinen. Die besitzen keine Empathie, wie der Mensch.

Aber man kann die Menschen glauben lassen, dass die Maschinen empathisch sind.

Das ist schwierig, denn wir haben auch die Erfahrung gemacht, dass das nicht jeder Proband glaubt. Wir haben zum Beispiel auch psychologische Tests im Zuge unserer Studien durchgeführt. Auf der einen Seite saß ein Mensch, dem wir sagten, er spiele gleich ein Spiel gegen einen anderen Menschen, den er nicht sieht, es war aber in Wirklichkeit eine Maschine. Es gab dann Psychologiestudenten, die testeten erst mal aus, mit wem sie es zu tun hatten, und wenn sie merkten, das war nur eine Maschine, verloren sie das Interesse. Also: Empathie ist ein ganz schwieriger Begriff, den wir in dem Projekt auch gar nicht benutzt haben.

Dennoch ist es hilfreich, wenn Maschinen die Emotionen ihrer Nutzer lesen können.

Sicher. Wenn ein Auto erkennt, dass der Fahrer gleich so die Beherrschung verliert, dass er einen Unfall baut, könnte es eingreifen und so Leben retten. Daneben entstehen ja auch wirtschaftliche Schäden, die sich vermeiden ließen. Denken Sie an Kraftwerke, das Transportwesen, Raffinerien. Wir werden also bald überall von den Maschinen überwacht? — Das ist natürlich ein großes Problem. Was geschieht, wenn die Maschinen immer selbstständiger werden und Entscheidungen treffen, die auch schiefgehen können? Wer ist dann eigentlich verantwortlich? Wir müssen hier viel stärker bedenken, was die Auswirkungen dieser neuen Technologien sein können. Deshalb beleuchten wir ja auch die Frage, welche ethischen, sozialen und rechtlichen Konsequenzen die Nutzung individueller Daten in der Mensch-Maschine-Kommunikation hat.

Daten werden ja auch jetzt schon im Internet gesammelt. 

Sicher. Vor einiger Zeit habe ich eine Großrechenanlage eines Cloud-Dienstes besucht. Das sind riesige Hallen, da steht ein Rechner neben dem anderen, handfeste Maschinen, und die nehmen alle Ihre Daten auf. Ich würde nicht ausschließen, dass da auch Schlüsselbegriffe der Nutzer analysiert werden, die bei Emotionen eine Rolle spielen. Dafür brauchen Sie ja nur die richtigen Programme.

Sie hören sich jetzt sehr skeptisch an.

Man muss bedenken, wo diese Technologie noch eingesetzt werden kann. Ich gehe davon aus, dass gerade beim Militär in diesem Bereich viel geforscht wird. Und ich weiß, dass einer der Leute, die auch an Hirn-Computer-Schnittstellen forschen, bereits vom US-Militär angesprochen worden ist. Und dann haben wir darüber diskutiert. Ich selbst habe eine ganz ablehnende Haltung.

Man könnte mit Computern perfekt überwachen, ob die Soldaten müde sind, ängstlich oder kampfbereit. 

Ja, oder man kann noch weitergehen und prüfen, wann und ob ein Soldat zum Beispiel nicht mehr kämpfen will. Dann sagen die Befehlshaber: Den ziehen wir jetzt aus dem Gefecht zurück. Es gibt natürlich auch den anderen Aspekt, über den man nicht gerne redet: Wie überall gibt es wahrscheinlich auch unter Soldaten einen Anteil an Menschen, die keine Probleme haben, Gräuel zu begehen. Dazu muss man sich nur die deutsche Vergangenheit, die Jugoslawien-Kriege oder aktuell den Syrien-Krieg in Erinnerung rufen. Und es könnte ja sein, dass der Militärapparat sagt, er wüsste gerne vorher, ob es Soldaten gibt, die zu Grausamkeiten neigen.


Dr. Sead Husic

Dr. Sead Husic

lebt und arbeitet als Journalist und Fotograf in Berlin.