
Kann KI Gefühle? Eva Weber-Guskar, Professorin an der Ruhr-Universität Bochum, hat sich diese Frage gestellt – nur natürlich etwas differenzierter. Es gibt bereits etliche digitale Anwendungen, die versprechen, mit ihnen könne ich meine Emotionen besser erkennen. Sie messen Herzschlag, Hauteigenschaften und Körpertemperatur. Sie können mich warnen, mir bestimmte Reaktionen nahelegen. Wenn KI meine Gefühle bestimmen kann, ist das hilfreich? Oder ist es Teil des Trends zur Selbstoptimierung, den wir in vielen Lebensbereichen feststellen, der uns fitter und vor allem an die Herausforderungen angepasster macht? Letzteres sollte jedenfalls zu denken geben. „Zwar sind die bisherigen Systeme nicht dafür geeignet, einzelne Emotionen so präzise zu erkennen, wie es wichtig wäre, um tiefes Verständnis zu erreichen und zielgerichtete Kultivierung zu ermöglichen. Doch wie ich erläutert habe, wäre das auch gar nicht wünschenswert. Wir sollten uns nicht ganz auf sie verlassen und damit Gefahr laufen, eigene kognitive, emotionale und soziale Fähigkeiten zu verlieren, die ihre je eigenen Bedeutung haben“ (S. 79).
Zu denken geben sollte auch die Möglichkeit mit neuen digitalen Mitteln, die Emotionen Dritter zu erkennen. Das könnte nutzbar sein für polizeiliche (Wer ist unsicher? Aggressiv?) oder für kommerzielle Anwendungen (Wie ist die Reaktion auf diese Produkte?). Klar wird, dass der Zugriff Dritter auf meine Emotionen der Manipulation neue Chancen gibt. Ist es beruhigend, dass die Technik, wie man aus Gesichtern Emotionen abzulesen versucht, wissenschaftlich nicht standhält? Interessant auch: KI kann Emotionen simulieren. Roboter mit großen Augen, KI-Girlfriends online, die sagen, was wir hören wollen, rufen Gefühle bei den Menschen hervor. Sie können einsamen Menschen gute Stunden bescheren. Die Emotionen anders als durch Simulation zu erwidern, ist den Maschinen aber nicht möglich. Weber-Guskar ist abwägend, hat auch Verständnis für den aktuellen und zukünftigen Einsatz. „In jedem Fall würde ich raten, keine Schmerzempfindlichkeit, auch keine persönliche Frustration oder Enttäuschung oder gar moralische Emotionen, wie Dankbarkeit, Schuld und Wut im Roboter nachzubilden. Denn diese vermeintlichen Anzeichen von Emotionalität könnten dazu führen, dass moralische Einstellungen von Menschen verzerrt werden. Ein Roboter bleibt ein Ding, auch wenn man mit ihm gemeinsam gute Ergebnisse erzielen kann“ (S. 202).