Toby Ord

The Precipice

Ausgabe: 2021 | 1
The Precipice

The Precipice bedeutet auf Deutsch „Der Abgrund“. Der australische Moralphilosoph Toby Ord vermisst den Abstand zwischen uns, also der Menschheit und dem Abgrund. Wir sind ihm leider näher, als wir uns alle wünschen.

Ord hat einen akademischen Hintergrund in Computerwissenschaften, wandte sich später der Philosophie und Ethik zu. Jetzt arbeitet er am Future of Humanity Institute der University of Oxford. Seine Bücher sind zentrale Bezugspunkte vieler Zukunftsdebatten. Und er spricht gerne in Zahlen. In seinem aktuellen Buch rechnet er vor, wie wahrscheinlich existentielle Bedrohungen für die Menschheit sind. Diese habe sich dank technologischer Entwicklungen an den Punkt entwickelt, wo sie sich selbst auslöschen kann. Gleichzeitig aber verhalte sie sich denkbar unreif, agiere unkoordiniert und kurzsichtig. Keine gute Kombination.

Aber Toby Ord hat auch gute Nachrichten. Die Natur ist weniger gefährlich als man meinen möchte. Die Wahrscheinlichkeit, dass die Menschheit in den kommenden Jahren an natürlichen Risiken zu Grunde gehen werde, liegt unter eins zu 200. Umfasst sind bei dieser Gesamtgefahrenquote der Einschlag von Asteroiden und Kometen, Sternexplosionen und gigantische Vulkanausbrüche. Teilweise sei die Menschheit hier bereits sehr weit in der Vorbereitung oder zumindest auf gutem Wege, die Gefahren (so gut es geht) in den Griff zu bekommen. Asteroiden und Kometen sind gefunden und ihre Flugbahn berechnet. Sternexplosionen sind solide erforscht und erscheinen unwahrscheinlich. Gigantische Vulkanausbrüche sind wahrscheinlicher, aber wir werden immer besser im Vorhersagen. Und auch technisch hat man grundsätzlich Chancen, die Folgen (vor allem durch klimabedingten Ausfall der Nahrungsproduktion) so zu begrenzen, dass die Spezies und wahrscheinlich auch die Zivilisation überleben können.

Gefährlicher sind wir Menschen uns selbst. Bereits jetzt vorhandene Bedrohungen durch menschliche Aktivität sind um ein Vielfaches wahrscheinlicher, die Menschheit im 21. Jahrhundert auszulöschen, als die natürlichen Gefahren. Sehr ernst nimmt Ord die Gefahr eines nuklearen Krieges. Das Vernichtungspotenzial von Nuklearwaffen sei dramatisch, nicht nur durch den direkten primären Effekt der Einschläge und Explosionen, sondern auch durch die klimatischen Folgen, die man „nuklearen Winter“ nennt. Spannungen zwischen Nuklearmächten haben zuletzt zugenommen. Forscherinnen und Forscher haben erst kürzlich errechnet, dass bereits eine nukleare Auseinandersetzung zwischen Indien und Pakistan einen ernstzunehmenden Effekt in Richtung eines „nuklearen Winters“ hätte. (vgl. S. 101)

Ord ist äußerst nüchtern und präzise. Das merkt man, wenn er sich der Erderwärmung widmet, die er für eine sehr ernste Gefahr hält: „Unlike many of the other risks I address, the central concern here isn‘t that we would meet our end this century, but that it may be possible for our actions now to all but lock in such a disaster for the future. If so, this could still be the time of the existential catastrophe – the time when humanity’s potential is destroyed.“ (S. 103)

Ökologische Gefahren und fehlende Modelle

Wenn es um ökologische Gefahren für die Menschheit geht, wird klar, dass uns oft die Modelle fehlen, die vermitteln, wie Dinge zusammenhängen. Der Verlust der Biodiversität (Sind wir am Beginn eines Massen-Aussterbens der Arten?), Knappheit an Rohstoffen, Wasserknappheit und Bevölkerungswachstum werden diskutiert, die Effekte hängen aber von einzelnen Faktoren ab (Welche Arten sterben aus? Welche Materialien werden in Technologien gebraucht? Wie entwickelt sich der Preis für die Wasseraufbereitung? Welchen Lebensstil werden wir haben?)

Und Pandemien, sind das keine natürlichen Risiken? Toby Ord legt klar dar, dass die existentiellen Risiken durch eine natürlich hervorgebrachte Pandemie eher gering sind. Viel realistischer sei, dass eine solch dramatische Pandemie durch menschliches Wirken entstehen wird. „The main candidate for biological risk over the coming decades thus stems from our technology – particularly the risk of misuse by states or small groups.“ (S. 134) Das könne man in den Griff bekommen, man müsse dafür aber die Kultur und die Governance in der Wissenschaft stark verändern. Die Sicherheitsstandards im Bereich der Biotechnologie müssten denen der Nukleartechnologie ähnlich sein. (vgl. S. 137) Das ist jetzt nicht so. Gegenüber dem Guardian erzählte Ord neulich, dass das Budget der internationalen Organisation, die die Einhaltung der „Konvention gegen Biologische Waffen“ überwacht, geringer sei als der Umsatz einer durchschnittlichen McDonalds-Filiale.

Löscht KI die Menschheit aus?

Könnte schließlich eine Künstliche Intelligenz die Macht übernehmen und die Menschheit auslöschen? Vergesst Roboter in diesem Zusammenhang, sagt Ord. „The most realistic scenarios may involve subtle and non-human behaviours which we can neither predict, nor truly grasp.“ (S. 146) Es helfe aber nichts: Man müsse fragen, ob es plausible Wege gibt, dass ein „Artificial General Intelligence-System“ die Kontrolle über unsere vernetzte Welt übernehmen könnte. „And the answer appears to be ‚yes‘.“ (S. 147) Wenn solche Machtübernahmen sogar einzelnen Menschen in der Geschichte gelungen seien, warum sollte es nicht dem Menschen vielfach überlegenen Intelligenten Systemen auch gelingen? „The case for existential risk from AI is clearly speculative. Indeed, it is the most speculative case for a major risk in this book. Yet a speculative case that there is a large risk can be more important than a robust case for a very low-probability risk such as that posed by asteroids.“ (S. 149) Der Autor rät, dieses Thema am ernstesten zu nehmen.

Ord liefert am Ende seiner Ausführungen eine Zahl, die sein über die vielen Seiten verteiltes Wissen auf den Punkt bringt. Die Wahrscheinlichkeit, dass die Menschheit – aus welchen Gründe auch immer – binnen hundert Jahren eine existentielle Katastrophe erlebt, liegt bei eins zu sechs. (vgl. S. 167)