Digitaler Humanismus

Ausgabe: 2019 | 1
Digitaler Humanismus
Eine Ethik für das Zeitalter der Künstlichen Intelligenz
Rümelin-Weidenfeld-Digitalier-Humanismus

Kann eine Künstliche (oder besser vielleicht: maschinelle) Intelligenz denken, fühlen, urteilen wie ein Mensch? Vielleicht nicht gleich heute, aber in der Zukunft? Oder gibt es eine grundsätzliche, eine kategoriale Grenze zwischen Mensch und Maschine? Das ist das zentrale Thema des Buches „Digitaler Humanismus“, in dem die Kulturwissenschaftlerin Nathalie Weidenfeld und der Philosoph Julian Nida-Rümelin eine Ethik für das Zeitalter der künstlichen Intelligenz entwerfen.

Überzeugend ist schon mal die Buchidee, Fiktion, durch Szenen aus Science-Fiction-Filmen, mit Philosophie zu verknüpfen. Ein Glücksgriff. Die Auswahl an Filmszenen macht zugleich deutlich, dass es kaum ein ethisches Dilemma an der Schnittstelle Mensch-Maschine gibt, das nicht schon im Film thematisiert worden ist. Überzeugend ist auch, wie die Autoren dagegen argumentieren, menschliche und Künstliche Intelligenz in einen Topf zu werfen.

In Summe ist dieses Buch eine klare Absage an die Verklärung Künstlicher Intelligenz. Und ein ebenso entschiedenes Eintreten für einen Humanismus, adaptiert für das digitale Zeitalter: „Ein digitaler Humanismus transformiert den Menschen nicht in eine Maschine und interpretiert Maschinen nicht als Menschen. Er hält an der Besonderheit des Menschen und seiner Fähigkeiten fest und bedient sich der digitalen Technologien, um diese zu erweitern, nicht um diese zu beschränken.“ (S. 10f.) Digitaler Humanismus formuliert eine Alternative zu dem, „was man vereinfachend als ‚Silicon-Valley-Ideologie‘ bezeichnen kann“, und wendet sich gegen eine Gleichstellung von „künstlicher“ und menschlicher Intelligenz, wie sie von Vertretern von KI in ihrer starken wie auch ihrer schwachen Form behauptet wird.

Starke und schwache Künstliche Intelligenz

Starke KI beinhaltet die These, dass es zwischen menschlichem Denken und Softwareprozessen keinen grundlegenden Unterschied gibt, schwache KI bestreitet zwar diesen Unterschied nicht, behauptet aber, dass alles menschliche Denken, Wahrnehmen und Entscheiden prinzipiell von Softwaresystemen simuliert werden könne. Wenn die AutorInnen von einem „kategorialen Unterschied“ sprechen, dann ist gemeint, dass es einen grundlegenden, nicht auszuräumenden Unterschied zwischen menschlicher und künstlicher Intelligenz gibt. Das ist das zentrale Argument: „Softwaresysteme wollen, fühlen, denken, entscheiden nicht.“ (S. 200) Es sind drei grundlegende Unterschiede, die das Buch herausarbeitet.

Erstens: Computer fühlen nicht. Maschinen haben oder entwickeln keine Emotionen, sie können sie allenfalls simulieren. Damit können sie auch keine Empathie empfinden.

Zweitens verfügt ein Computer „nicht über moralische Urteilskraft“, auch diese könnte er „allenfalls simulieren“. Der Grund ist, dass sich die Praxis des Abwägens nicht algorithmisieren lässt. „Moralische Abwägungen können nur Menschen vornehmen.“ (S. 87)

Drittens: Denken. „Ein Computer denkt in unserem Sinne überhaupt nicht.“ (S. 109) Zwar sind Computer in der Lage, Denken erfolgreich zu simulieren, „aber trotz dieser oft perfekten Simulation liegt beim Computer kein eigenes verständiges Erfassen, kein Problembewusstsein, keine Einsicht zugrunde.“ (ebd.)

Unklare Grenzen zwischen maschinelle und menschliche Intelligenz 

Doch die kritische Frage folgt auf dem Fuße. „Doch was ist, wenn Roboter immer komplexer und fortschrittlicher werden?“ Kann es einer solch fortgeschrittenen maschinellen Intelligenz gelingen, den Unterschied zur menschlichen zu verwischen? Die wichtigste Leistung des Buchs liegt nun darin, dass es ein entscheidendes Gegenargument aus der Tiefe logisch-mathematischen Spezialwissens an die Oberfläche holt: den Unvollständigkeitssatz von Kurt Gödel, einen der wichtigsten Sätze der Mathematik. Dieser Satz zeigt, dass die Mathematik nicht zugleich vollständig und widerspruchsfrei sein kann. Wie alle formalen Systeme ist sie entweder widersprüchlich oder unvollständig.

Damit, so die Argumentation des Buches, könne es keinen Algorithmus geben, der das menschliche Denken als Ganzes repräsentieren kann. Und keinen Algorithmus, der uns die Überprüfung der Richtigkeit oder Falschheit von Hypothesen und Überzeugungen abnimmt. „Wir müssen schon selber denken“ (S. 110), lautet die zentrale Schlussfolgerung: „Menschliche Vernunft, die menschliche Fähigkeit, Überzeugungen, Entscheidungen und emotive Einstellungen zu begründen und auf dieser Grundlage ein kohärentes Weltbild und eine kohärente Praxis zu entwickeln, lässt sich nicht im Modell eines digitalen Computers erfassen. Es wird nie gelingen, die hohe Komplexität unserer lebensweltlichen Begründung vollständig und in adäquater Weise formal zu erfassen. Roboter und Softwaresysteme funktionieren nach einem Algorithmus, Menschen nicht. Darin liegt einer ihrer zentralen Unterschiede begründet.“ (S. 111) Ebenso wenig könne KI Intentionen, „das Gerichtetsein des Geistes auf etwas“ realisieren.

Intuition und Intention, so der Kern der Argumentation, lassen sich nicht algorithmisieren, ebenso wenig die menschliche Fähigkeit, sich durch den Austausch von Gründen zu verständigen. Das gelte auch dann, wenn fortgeschrittene Anwendungen Künstlicher Intelligenz immer komplexer werden. Denn das ändere nichts an ihrem algorithmischen Charakter, hat aber eine andere Konsequenz: Mit steigender Komplexität schwindet die Transparenz. Es ist nämlich nicht mehr nachvollziehbar, auf welchem Weg eine Maschine zu einem bestimmten Ergebnis gekommen ist. Ein ganz zentraler Punkt für eine zu entwickelnde Kritik der Maschinellen Intelligenz.

"Die Frage ist nicht so sehr, was möglich ist, sondern was wir wollen"

In den hinteren Kapiteln widmet sich das Buch dann ethischen Aspekten digitaler Kommunikation, der Kommunikation zwischen Mensch und KI und den Themen Bildung, Demokratie und Arbeitsgesellschaft. Drei Zuspitzungen: Erstens führe das World Wide Web mit seiner überbordenden Vielfalt von Interpretationen, Thesen, Theorien und Ideologien zu einer massiven Aufwertung des alten humanistischen Bildungsideals. Denn: „Wissen verlangt Urteilskraft.“ (S. 160) Zweitens wendet sich das Buch gegen ein bedingungsloses Grundeinkommen, da dieses die Spaltung der Gesellschaft verstärke. Die Digitalisierung dürfe keinen Ausstieg aus der Arbeitsgesellschaft zur Folge haben. Zu denken gibt drittens der Rekurs auf Ergebnisse der Demokratieforschung, nach denen es „kein einziges Verfahren kollektiver Entscheidungsfindung gibt, das nicht strategie- und manipulationsanfällig ist“.

Fazit: Ein ungemein wichtiges Buch für die Debatte über die digitale Automation. Ein Buch, das einen wichtigen Hinweis gibt, den zu zitieren keinesfalls vergessen werden soll: „Die Frage ist nicht so sehr, was möglich ist, sondern was wir wollen.“ (S. 98)

Von Winfried Kretschmer


Nida-Rümelin, Julian; Weidenfeld, Nathalie: Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz. München: Piper, 2018. 224 S., € 24,- [D], 24,70 [A]