Machine Learning

Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz

Engemann-machine-learningDie Medienwissenschaftler Christoph Engemann und Andreas Sudmann haben einen umfassenden Sammelband zum hochaktuellen Thema des maschinellen Lernens herausgegeben. Im Zentrum stehen medien- und kulturwissenschaftliche Betrachtungen zu Künstlicher Intelligenz (KI) im Allgemeinen und Künstlichen Neuronalen Netzwerken (KNN) sowie Deep Learning (DL) im Speziellen – also jenen Prozessen, die KI selbststeuernde Lernprozesse ermöglichen: Welche Chancen, Risiken und Grenzen gibt es in diesem Bereich für unsere Gesellschaft?

Der Band richtet sich dabei an ein Fachpublikum, welches zumindest mit Grundzügen von Medientheorie und KI vertraut ist. Die einzelnen Beiträge stehen in der Tradition einer kritischen Kulturwissenschaft und stellen grundsätzliche Fragen zu den Implikationen von DL: Etwa, wie sich die Rolle des Lernens an sich verändert (Beiträge von Hermann Rotermund und Luciana Parsi) und ob dies einen „Kontrollverlust“ für die Bildungspolitik bedeute (Jeremias Herberg), wie KI zunehmend in die kreativen Sphären von Musik einbricht und was das für Kreativität heißt (Franziska Kollinger), was die Folgen eines unkontrollierbaren „Datenmeeres“ sind (Hito Steyerl) oder was die Weiterentwicklung der Robotik mit sich bringt (Yvonne Förster) – nur um einige der 15 Artikel zu nennen. Der Sammelband wird mit zwei Interviews mit Yoshua Bengio und Roland Memisevic abgerundet, die beide als Koryphäen in der Forschung zu KI gelten.

Andreas Sudmann über KI-Forschung

In der Einleitung betont Andreas Sudmann die unterschiedlichen Konjunkturen, die KI-Forschung durchlaufen hat. Computer sind heute in der Lage, aus Erfahrungen zu lernen, Aufgaben zu lösen und Prognosen zu erstellen (vgl. S. 10). In verschiedenen Lernverfahren werden Maschinen immer intelligenter, dank der KNN – Vernetzungen, die dem menschlichen Gehirn nachempfunden wurden und Maschinen erst intelligent werden lassen. Gleichzeitig betont Sudmann – wie auch eine Reihe weiterer AutorInnen – dass KI nach wie vor weit davon entfernt ist, die menschliche Intelligenz in ihrer Gesamtheit auch nur annähernd zu überbieten. Trotzdem sind die Implikationen riesig, vor allem wenn es um die Zukunft des Lernens geht: „Zu erwarten ist, dass die Lerntheorien der Zukunft wesentlich stärker auf Ansätze des Machine Learning und der KNN zurückgreifen werden. Jedenfalls scheint es kaum abwegig, dass in nicht allzu ferner Zukunft im Klassenzimmer oder im Seminarraum immer mehr mit Hilfe maschineller Lernverfahren gelernt und geforscht wird“ (S. 20).

Einen spannenden Blick auf das Phänomen des DL bringt Sudmann in seinem Beitrag „Szenarien des Postdigitalen“. Der Autor argumentiert hier, dass wir mit der KI in eine neue Ära des Postdigitalen eintreten – in dem Sinn, dass die klassische, auf binäre Codes basierende Computerwelt sukzessive von KI abgelöst wird, die wiederum in alle Bereiche unserer Gesellschaft massiv eingreift und sich so nicht mehr klar von unserem Alltag abgrenzen lässt. KI bedeutet also einen grundlegenden Technologiewechsel und nicht die Fortschreibung des digitalen Zeitalters, und mit dem Siegeszug von DL durch KNN kündigt sich nichts anderes als ein grundlegender Paradigmenwechsel in der Informationstechnologie an (vgl. S. 58ff.). Dies bringt auch eine Medienrevolution mit sich, welche das „postdigitale Zeitalter“ einläutet.

Stefan Rieger über Technologie und menschliches Unbehagen

Obwohl Technologie spätestens seit der industriellen Revolution unser Leben maßgeblich beeinflusst, bleibt ihr gegenüber ein menschliches Unbehagen: Dieses wird von Stefan Rieger in seinem Beitrag „Bin doch keine Maschine …“ thematisiert: „Die Negativsemantik der Maschine hat ihre eigene Geschichte und sie schrieb ihre eigene Geschichte. In deren Zuge wurde das Mechanische zum Adressaten einer ebenso langwierigen wie nachhaltigen Geringschätzung und konnte diese selbst in der Populärkultur mit nachgerade nervender Nachhaltigkeit behaupten.“ (S. 117) Rieger zeichnet die menschliche Skepsis gegenüber den selbstgeschaffenen Maschinen durch die Geschichte nach und verweist auf die „Momente des Unheimlichen“. Diese haben angesichts selbst lernender Maschinen und KI derzeit Hochkonjunktur: Fragen nach Maschinen- und Roboterethik tun sich auf, und die Befürchtung, dass eines Tages die Maschinen ihre Schöpfer übertreffen könnten. Rieger verweist darauf, dass diese Befürchtungen häufig aus der Pädagogik kommen und mit einer grundlegenden Skepsis gegenüber der Mathematik einhergehen: „Die Vorbehalte gegenüber der Mechanik finden in denen gegenüber der Mathematik ihre würdige und kulturell mit vergleichbarer Hartnäckigkeit verankerte Entsprechung. Die Rede ist von einer im Bildungssystem tief verwurzelten Phobie gegenüber formalen und algorithmischen Herangehensweisen. In dieser Phobie manifestiert sich eine gesellschaftliche Haltung, in der sich der Kampf der Kulturen von Geistes- und Naturwissenschaften zum Nachteil aller Formalisierung verdichtet“ (S. 127).

Jutta Weber über „Big Data Kriege“

Eine große ethische Schwierigkeit thematisiert Jutta Webers Beitrag „Big Data Kriege“: Vor allem die USA sind in den letzten Jahren dazu übergegangen, Tötungslisten für den „Krieg gegen den Terror“ zu erstellen – anhand riesiger Datensätze, die mit Hilfe problematischer Datenanalyseverfahren Verdächtige „ausfindig“ machen. Diese „Disposition Matrix“ konstruiert TerroristInnen anhand von Merkmalen, die so allgemein gehalten sind, dass zwangsläufig Menschen darin Aufnahme finden, die mit Terror nichts zu tun haben. Ein immenses Problem ist dabei die Intransparenz, wie die Analyseverfahren laufen: Unklar ist, wer warum als terroristisch abgestempelt wird, wie „genau die Informationen der Datenbanken zusammengeführt und welche spezifischen Targeting-Methodologien und Algorithmen verwendet werden“ (S. 223). Außerordentlich problematisch ist, dass Computer auf eine extrem vage Definition von „terroristischen Verdächtigen“ trainiert sind: „Die Datenbanken enthalten zunehmend auch Daten von nicht-gewalttätigen politischen Aktivist_innen und Individuen, welche das herrschende politische System ganz allgemein in Frage stellen. (…) Aus Angst, mögliche potenzielle Verdächtige zu übersehen, werden die Suchkriterien ganz breit konstruiert.“ (S. 224) Die Folge: Die Tötungs- und Beobachtungslisten werden immer länger und immer weniger aussagekräftig. Oft reicht es, im entfernten Dunstkreis eines Verdächtigen aufzutauchen, um selbst verdächtig zu sein – darunter oft auch JournalistInnen, die aufgrund ihrer Recherche-Aktivitäten ins Visier geraten. All dies ist Ausdruck einer neuen „Technorationalität“, die sogar Entscheidungen über Leben und Tod den Maschinen überlässt – ohne dass man die Algorithmen durchschaut. Wohl nur ein schwacher Trost dabei: Über die eigentliche Tötung entscheidet der US-Präsident – anhand der Disposition Matrix.

Von Birgit Bahtić-Kunrath

Machine Learning. Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz. Hrsg. v. Christoph Engemann und Andreas Sudmann. Bielefeld: transcript, 2018. 390 S., € 32,99 [D, A]

Related Posts

timo-daum-die-künstliche-intelligenz-des-kapitals
Die künstliche Intelligenz des Kapitals
Wennerscheid-Sex-Machina
Sex Machina
Bischof-Soziale-Maschinen-bauen
Soziale Maschinen bauen
Volland-die-kreative-macht-der-maschinen
Die kreative Macht der Maschinen