Die KI kommt ins Hirn oder umgekehrt

Roberto Simanowski schrieb „Todesalgorithums“

Realität – KI – Science Fiction 

09-05-2022
 

Es gibt einen Wikipedia-Eintrag für den Essay, eine „offizielle“ Definition der Gattung dagegen gibt es nicht. Man liegt nicht ganz falsch, in einem Essay den Versuch zu sehen, ein kulturelles oder politisches Thema in seiner Breite und Tiefe zu behandeln. Genau das macht es schwer, den Essay "Todesalgorithmus" von Roberto Simanowski zusammenzufassen.

Average: 4.5 (6 Bewertungen)

Ein Essay ist ein Versuch.
Was, wenn der gelingt?

Der Essay ruht in seiner Form, geht in ihr auf. Die Argumente sind verflochten, das Thema mäandert im Grenzland von Begriff und Rahmenhandlung, Ästhetik, Ratio, Sachbezug und historischer Einbettung. Das Wie ist wichtig, das Wovon-noch und auch das Warum. Einem guten Essay gelingt es, ein gedankliches Spektrum wie mit mit spitzer Feder präzise zu zeichnen, aber auch wie mit einer Dampfwalze der Schönheit zu präsentieren.
Nur zu sagen, worum es geht, trifft es nicht.   

Probleme gab es vorher schon!

Den Essay „Todesalgorithmus – das Dilemma der Künstlichen Intelligenz“ von Roberto Simanowski (RS) gegen den nebenan tobenden Krieg anzulesen, fordert eine gehörige Verdrängungsleistung. Über Tag schlittert Europa in einen Krieg mit Russland, über Nacht verhakt sich der Titel im Hirn. Und wer, bitte, – wenn die Nachrichten morgens wie abends die Toten zählen – braucht on top of that Probleme aus der Zukunft? Phhh.

Andererseits … verhandelt die Öffentlichkeit derzeit die Frage, ob – Frieden oder Freiheit – es „richtiger“ ist, dass (nur) die Ukraine diesen Krieg erleidet, oder dass die Welt womöglich im dritten Weltkrieg versinkt. Schlechte oder katastrophale, schwache oder dumme oder ausweglose Argumente, ein slippery sloap; wie vom Fliessband versorgt der Kriegsalltag die Galerie mit Dilemmata. Es geht um Leben und Tod; überraschenderweise stellt RS die gleiche Frage.

Denn er spricht vom autonomen Fahren, zumindest beginnt er damit. Das klingt nur auf den ersten Blick nach einer kleineren Nummer.
Google und Tesla haben das autonome Fahren vorangetrieben; noch gibt es ein paar technische Probleme. Doch die Perspektive ist beeindruckend: eine Kombination aus Individual- und Schienenverkehr, die unser Mobilitätsverständnis verändern wird („könnte“ wäre hier definitiv die falsche Verbform). Es ist eine noch immer relativ neue Technologie, die, einmal im eingeschwungenen Zustand, eine massive Reduktion der Unfälle verspricht, die ihrerseits, bei allem Fortschritt, noch immer den Strassenverkehr belasten (in Deutschland sind es 2,3 Mio Unfälle mit 34 Mrd € Schadensumme, 322 Tsd. Verletzten und 2.600 Todesfällen). Gegen so ein Versprechen – oder wenn es darum geht, Menschen mit Behinderung das Leben zu erleichtern – ist kein Kraut gewachsen.

„Es wäre moralisch unverantwortlich, selbstfahrende Autos nicht einzuführen.“ (S. 16) Aber:
„Die Unantastbarkeit der Menschenwürde ist in Gefahr, wenn die Technik verlangt, Abwägungen, die sich philosophisch verbieten, für den Ernstfall zu programmieren.“ (S. 16)

Schon wieder ein Dilemma. Unglücklicherweise widerspricht das Autonome Fahren dem Grundgesetz und dem über Jahrhunderte gewachsenen ethischen Weltverständnis des Westens. Wir ahnen wie: Nämlich wenn es zu einem Unfall käme, dem die Entscheidung voraus ging, wie das Auto sich zu verhalten habe: mit seinem Insassen gegen die Wand zu fahren – oder nach links einen Rentner oder nach rechts ein Kind tödlich zu verletzen. Ob Mensch oder Maschine, in der so gegebenen Situation kommt es zu IRGENDEINER Entscheidung. Beim autonomen Fahrzeug muss diese jedoch prospektiv getroffen und in einem Programmcode hinterlegt sein. Dieses – im wahrsten Sinne – VorUrteil nennt RS den „Todesalgorithmus“.

Das Dilemma dieses Entscheidens – und es ist eines, weil jede Entscheidung mit einem „ungerechtfertigten“ Todesfall endet – gibt es in Variationen. Ein Beispiel (S. 19) liefert ein unautorisierter, studentischer Werbefilm: In einem Dorf aus dem 19. Jahrhundert stoppt ein (offenbar Zeit-reisender) autonom fahrender Mercedes vor zwei Kindern, überfährt aber ein anderes Kind. Aus dem Off ruft eine weibliche Stimme: „Adolf!“ Claim: „Erkennt Gefahren, bevor sie entstehen.“ Das Dilemma ist klar: nach Recht, Gesetz und allgemeinem Verständnis darf ein Fahrzeug, respektive sein Programm, respektive seine Programmierer, eine solche Entscheidung  nicht treffen. Menschenleben sind nicht verrechenbar!

„Die deutsche Verfassung bevorzugt mit dem Verbot der Instrumentalisierung des Menschen die deontologische [„was soll ich tun?“] Pflichten-oder Gesinnungsethik gegenüber der konsequentialistischen [„was kommt dabei raus?"] Zweck-oder Verantwortungsethik.“ (S. 21)

Wo endet, was beim autonomen Fahren beginnt? Dass die Demokratie der Klimakrise nicht gewachsen ist, ist noch kein Gemeinplatz, aber doch auf dem besten Wege, einer zu werden! Sollten wir nicht besser all jene Probleme einer KI zur Administration überlassen, zu deren Auflösung wir ganz offenbar (und insbesondere kollektiv) unfähig sind? Reisen, Heizen, Ernährung, Müllerzeugung usw.; gute Vorsätze haben noch keinen dieser Katastrophentreiber stillgestellt. Und der Druck wächst.

Dass wir, wir jetzt als Menschheit, die Probleme lösen müssen, ist uns klar. Nur geht es bei all diesen wirklich grossen Problemen, wie mit der Mehrheitsmeinung in Sachen Autonomes Fahren: eine repräsentative absolute Mehrheit ist der Meinung, dass im kritischen Fall das Fahrzeug samt Insassen gegen die Wand fahren soll, muss – denn Kind wie Rentner wären schuldlose, daher unverantwortbare Opfer! Moralisch ist die Sache eindeutig … nur will niemand ein Fahrzeug kaufen, dass so programmiert ist. Nicht anders in der Demokratie: Energie sparen will jeder wollen; keiner tut es – ein Grund find sich immer. Dies in Rechnung gestellt gäbe es also sehr gute Gründe, unsere gattungsgefährdende Unfähigkeit an eine weniger wankelmütige Instanz auszulagern – und das umso eher, als diese tausend Mal klüger ist, als jeder von uns und wir alle zusammen.

Auf „ElitePartner“ haben wir damit schon begonnen. Die endlosen Beziehungskatastrophen der Jugend und die dem nachfolgenden Scheidungsraten zeigen, dass wir nicht einmal für eine so basale Frage wie die Partnerwahl hinreichend kompetent sind. Ist es nicht, fragt RS, wie eine Rückkehr ins Paradies, wenn wir all die Fragen, denen wir nicht gewachsen sind, den Maschinen übergeben? Wenn wir unseren „freien“ Willen (naja, sagt die Hirnforschung, naja, sagt auch die Philosophie, und haha!, lacht Yuval Noah Harari) an eine Trusted Artificial Intelligence delegieren?
Die UpSide glänzt und leuchtet!

Kommen wir zum Kleingedruckten.

Sozusagen funktional sehen wir uns durchaus in der Lage, der Maschine unsere Wünsche mitzuteilen. Im Verlauf des Industrie- und Computerzeitalters haben „wir“ diese Fähigkeit zu beeindruckender Komplexität ausentwickelt. Meistens ist das gut gegangen; wobei, naja, funktional, das schränkt den Erfolg schon ein wenig ein. Statistisch haben wir schon mal Fünfe gerade sein lassen, und auch systemisch haben wir ein paar Kleinigkeiten, diese und jene Fremdlast darunter, unter den Teppich gekehrt, sagen wir: externalisiert, das klingt besser. Wir haben von unserem Wünschen und Wollen, nicht aber vom Ende her gedacht, und, wie man so sagt, jetzt ist die Kacke am Dampfen. Wenigstens wissen wir seit Albert Einstein, dass die Probleme sich nicht mit den Mitteln lösen lassen, durch die sie entstanden sind.
Deswegen die KI! Eigentlich logisch, eigentlich richtig. Aber!

Tut die Maschine, was sie soll?

Seit Goethes „Zauberlehrling“, seit Kubricks „2001“, seit Hillenbrands „Hologrammatica“ kennen wir auch dieses Dilemma. Damit die Maschine unseren Problemen tatsächlich gewachsen ist, wären eine Reihe von Vorbedingungen sicherzustellen, darunter ein unbeschränkter Zugriff auf alle Informationen sowie auf alle (ökologisch und auch sonst überlebens-relevanten) Stellhebel. Inklusive jener, die in unserer je individuellen Verantwortung liegen. Ganz geheuer ist uns das nicht. Will man einer Maschine die wirklich grossen Fragen anvertrauen, ohne mit Sicherheit ausschliessen zu können, dass nach drei Jahren, wenn alle gerade im Liegestuhl am Strand liegen, ein BlueScreen den weltweiten Systemabsturz anzeigt (Stichwort Microsoft, die Älteren erinnern sich)? Oder noch schlimmer: Was, wenn die Maschine zu anderen als den von uns intendierten Schlussfolgerungen kommt? Ist die Maschine so schlau, wie die Probleme es erfordern, könnte ihr auffallen, dass der Mensch als solcher das Problem ist. … Nun, das wissen wir selbst: der Scoop ist älteren Datums!

Und was dann?

Tief in der Natur eines Dilemmas wohnt die Einsicht, dass es nicht lösbar ist. Zu der Überzeugung kommt auch RS. If you can’t beat them, join them; sagen wir: in einem metaphysischen Sinne.

„[Nietzsche:] »Ist nicht die Grösse dieser Tat selbst zu gross für uns? Müssen wir nicht selber zu Göttern werden, um nur ihrer würdig zu erscheinen?« Und Götter werden wir! Oder wie anders soll man es nennen, wenn der Mensch nun eine neue Spezies schafft, nicht aus Fleisch und Blut wie er zwar, aber dafür tausendmal klüger. Und weil die Intelligenz seines Geschöpfes die eigene übersteigt, wird der Mensch mit dieser Erfindung nicht nur selbst Gott, sondern schafft sich zugleich einen neuen. Denn einer Intelligenz, die effektiver ist als man selbst, überlässt man gern das Denken und entscheiden.“ (S.135)

Die A-Note

Ich hatte es eingangs angedeutet: Man müsste den Autor über Seiten zitieren, wollte man zeigen, wie prismatisch und vollständig er seine Gedanken entwickelt; eine Paraphrase gibt das nicht her. Auch entwickelt RS eine Breite und Tiefe, die hier nicht stattfindet (im Gegenteil, ich kürze ab): ihm gelingt eine philosophische Einordnung der KI, angefangen bei Hegels Weltgeist bis hin zu Hans Ulrich Gumbrecht, der jenen noch im Silicon Valley aufspürt. Er diskutiert politische wie ordnungspolitische Aspekte und führt das Denken bis ins Praktische, Handlungsleitende. Mit seiner ebenso lebenstauglichen wie begriffsgenauen Sprache gelingt es ihm, mit leichter Hand schwere Brocken durch Hirnkasterl zu bewegen. In Summe ein Vergnügen und inspirierender Gewinn.

Die B-Note

Warum also meckern, wenn ich doch begeistert bin! Vielleicht und mit Mühe könnte ich ein paar Petitessen nachweisen, … und der Titel schreckt ab (?)  …, alles belanglos, unangemessen, das wäre Krittelei. Nein. RS hat sein Thema umfassend abgehandelt, und so empfehle ich das Buch mit Nachdruck zur Lektüre.

 

p.s. Entscheiden

Angemessen wäre allenfalls, über das Gesagte hinaus zu denken. Auch das ein Problem, denn da oben ist die Luft dünn. So diskutiere ich eher als dass ich kritisiere, zunächst „die Verantwortung“. Weiter oben, als es um die Unfälle ging, sprach RS von „ungerechtfertigten Todesfällen“. Wir neigen dazu, den Passagier eines autonomen Fahrzeuges mit den alternativen Opfern (Kind oder Rentner) geichzustellen. Der Passagier sei von der Verantwortung freizustellen, WEIL ja eine KI das Fahrzeug steuert (RS spricht von „geringster Schuld“, „wenn sie [die Passagiere] nur über den Algorithmus vermittelt am Strassenverkehr teilnehmen“ S. 37). In dieser Sicht findet die intentionale Initiation, der kausale Ursprung des Geschehens, keine Berücksichtigung, nämlich die Tatsache, dass es keinen Unfall hätte geben können, wenn der Passagier keine Fahrt angetreten hätte. Das, meine ich, begründet aber seine Verantwortung: Er WILL zur Oma, zur Lisa oder in die Firma. Insofern können wir die Zwecke und Ziele des Kindes und des Rentners auch nicht in die Mitverantwortung nehmen, blieben sie doch ohne die (Risiko-mitführende) Fahrt des Passagiers unberührt.

Die Konsequenz dieses Argumentes beendet die Debatte, zumindest einen Teil! Jetzt nämlich fällt die Mehrheitsmeinung mit der Verantwortlichkeit in eins, und mit dem Argument, dass Fahrzeuge „nicht gekauft werden wollen“, wenn sie so programmiert sind, dass sie mit ihrem Passagier gegen die Wand fahren, verhält sich ähnlich, meine Wette, wie mit dem Fliegen: die Statistik wird’s richten.    

Mein zweiter … „Einwand“ … nach dem ersten beinahe unnötig …, gilt dem Affekt. In der Debatte um die Entscheidung stellt RS die programmierte Entscheidung des Algorithmus der affektiven Handlung des Menschen gegenüber. Klar ist, dass auch der Mensch „entscheidet“, nur eben „im Affekt“, und das sei etwas anderes.

Kauf ich nicht.

Aus eigenen Unfallerfahrungen meine ich zu wissen, dass auch im Affekt eine – auf VorWissen und VorDenken basierende Priorisierung stattfindet; unzweifelhaft fehlt im gegebenen Augenblick für These-Antithese-Synthese die Zeit.

  1. NICHT gegen eine Wand/LKW-Heck,
  2. NICHT auf die Gegenfahrbahn,
  3. NICHT gegen einen Baum.

Das Argument: Wenn mein „Affekt“ die Alternativen 1. und 2 ausschliesst, ist das eine, meine, Konditionierung. Oder in anderen Worten: solange ich „noch etwas zu entscheiden habe“, habe ich auch – und seien es unterbewusste – Kriterien. Ist aber die Zeit zu kurz, ist Handeln Zufall. Meine Frage also lautet: Was genau ist denn ein Affekt? Auch wenn es zum Nachdenken nicht mehr reicht, wirken „Kriterien“.

„Die Ethik des unverhandelbaren Subjekts verbietet, einen Menschen auf ein Mittel zur Rettung anderer zu reduzieren.“ (S. 21)

Gleichwohl „geschieht“ genau das – nur wird es als „Affekt“ aus der Wertung genommen. Wohin führt dieses Argument?

Zunächst zu der Feststellung, dass der gegebene Ordnungsrahmen nicht notwendig die ethische Verfassung der Gesellschaft repräsentiert. „Die Würde des Menschen … “ ? Schön und gut: wo, wenn es darauf ankam, blieb sie je unversehrt? Das Argument führt uns vor die Tore der Bigotterie. Ordnung muss sein! Aber wir parken, wo Platz ist. Die Einnahmen aus Ordnungswidrigkeiten sind Bestandteil der Budgetplanung. In einem abgewandelten Böckenförde könnte man sagen: Der Staat („der Westen“) behauptet eine Verfasstheit, die von seiner Gesellschaft nicht getragen wird (und eben diese Bigotterie ist Gegenstand in der globalen Systemdebatte).

Das geht genau solange gut, bis es zum Schwur kommt. Vermutlich ist es sogar richtig, den normativen Anspruch vor jeder Praxis zur Geltung zu bringen – und so zur „Konditionierung der Affekte“ beizutragen. Nur lässt sich mit einer derart biblischen Psychologie die Maschine nicht beeindrucken. Bei der späteren Diskussion um die denkbare (gar wünschenswerte) Rolle einer KI bei der Bekämpfung des Klimawandels argumentiert RS, dass die KI eben unbestechlich darauf besteht, das „Richtige“ zu tun und sich nicht von Opportunitäten und Rücksichten davon abhalten lasse – auch dann nicht, wenn die Verfasstheit (in diesem Strang dann: die Freiheit des Individuums) dem entgegensteht.

Man könnte es so sagen: Noch dort, wo eine sorgfältige ethisch-philosophische Debatte eine normative Position zwingend erscheinen lässt, muss diese Position, um nicht als blosse Luftnummer herzuhalten, vor der Realität Bestand haben. Schon die Gegenüberstellung besagt, dass das eher selten vorkommt. Das analoge Leben verfügt über ethische Dehnungsfugen, die diesen Twist aushalten – Leben kann zwischen „Soll“ und „Sein“ flottieren; ein digitales Programm jedoch kann mit einem sowohl-als-auch nicht operieren – und vermutlich wird die utilitaristische Logik umso nachdrücklicher und radikaler, je weiter sich die „schwache“ hin zu einer „starken“ KI entwickelt.

»Die Gefahr der Maschinenethik, …, besteht darin, „dass wir unsere Moralvorstellungen daran anpassen, was sich programmieren lässt.“« (S. 51)
»Das autonome Fahrzeug steht als Beispiel dafür, dass die neuen Technologien der Gesellschaft einen ethischen Paradigmenwechsel aufzwingen.« (S. 51)

Mein dritter Einwand betrifft den Moment vor der Entscheidung. RS geht davon aus, dass die KI handeln muss.

„Noch unmoralischer, als kühl und herzlos das Leben eines Kindes gegen das eines Rentners abzuwägen, wäre es, eine Technologie zu blockieren, die Zehntausende von Unfalltoten pro Jahr verhindern könnte.“ (S. 37)

Doch diese Alternative erscheint mir unstatthaft: Zunächst unterstellt und akzeptiert! der Todesalgorithmus ja bereits den Tod zumindest eines Menschen; insofern wäre also nichts verhindert. Denkbar ist aber auch dann noch eine Division durch Null! Oder anders gesagt: die KI möge standardisiert ihre volle Wirkung entfalten bis hin zu jenen (statistisch wenigen) allerletzten Entscheidungen, die auf ethisch toxisches Terrain führen (Kind oder Rentner). Dann triff KEINE Entscheidung – auch das IST eine Entscheidung! – und macht Lärm. Vielleicht reagiert der Passagier, vielleicht nicht.
Das ist, zugegeben, eine aus Sicht des Algorithmus eskapistische Lösung. Sie zu legitimieren können aber drei utilitaristische Argumente vorgebracht werden:

  1. Vermutlich trifft es dann mehrheitlich den einzig „überhaupt irgendwie“ Verantwortlichen, den Passagier.
  2. Aber wie oft kommt es überhaupt vor? Die KI reduziert a) das Risiko im Vorfeld auf marginale Grössenordnungen und minimiert b) überdies durch präventives Fahrverhalten die Schadenintensität.
  3. Und schliesslich: inwieweit unterscheidet sich die dann einem Zufall anheim gegebene Entwicklung vom menschlichen „Original“?

Mein vierter Punkt behandelt die quantitative Aufrechnung – wie sie im Beispiel des Piloten gegeben ist, der ein Flugzeug abschiesst, das von Terroristen in ein voll besetztes Stadion geflogen wird (Ferdinand von Schirach). Ich bin unentschieden: WENN wir schon das menschliche Leben als das „höchste Gut“ betrachten, so fällt es mir schwer, die resultierende Logik zu ignorieren. Denn unterhalb der ethischen Verrechnungshürde ist dann „mehr“ Leben/weniger Opfer besser und auch moralisch höherwertig, als weniger Leben und mehr Opfer. Muss man nicht sogar umgekehrt argumentieren, dass die Unterlassung (des möglichen Abschusses) moralisch verwerflich wäre, nähme sie doch in Kauf, zu all dem Unglück im Flugzeug auch noch unzähliges Unglück im Stadion zuzulassen. … Möchte ich ich im Stadion sterben, obwohl es vermeidbar gewesen wäre? Nein. Sicher will ich auch nicht präventiv abgeschossen werden; aber deswegen lieber erst im Stadion umkommen und hunderte oder wieviel Weitere mit in den Tod reissen? Natürlich auch nicht. In dieser Kalkulation gibt es kein Remis. Ich – als Opfer – bin mit keiner Variante „einverstanden“; de facto macht mich das zur Geisel [Verweis auf Baudrillard] einer externen Entscheidung. Diese ist unausweichlich, und da sie ethisch so oder so nicht begründbar ist, bleibt nur die quantitative Logik.

Die abschüssige Versuchsanordnung der moral machine (S. 25 ff) hingegen, die für das autonome Fahren on top der blossen Quantität allerlei qualitative Entscheidungsnotstände einer (Web-basierten) Abstimmung aussetzt (Kinder versus Alte, Männer versus Frauen, Doktoren versus Arbeitslose, …), um dann die regionalen „kulturellen“ Abweichungen festzustellen, verrechnet nicht mehr auf der existentiellen Ebene Leben gegen Leben, sondern gesellschaftliche (im Zweifel sogar zeitgeistig zufällige) Konditionierungen.

Möglicherweise überwindet das deep learning solche regionalen Anschauungen zugunsten einer universalen Ethik?

„Ist die Datenmenge, die das Internet diesem Lernprozess anbietet, so allumfassend und mannigfaltig, dass sich eine Art globaler Mehrheitsentscheid ergibt, der dann auch dem Todesalgorithmus universale Gültigkeit verschaffen könnte?“ (S. 43)

Wenn das dem nachfolgende Einerseits/Andererseits schliesslich doch zu einer Antwort auf diese Frage tendiert (auch bei zweiten Lesen war ich nicht sicher), so wohl eher zu einem Nein. „Die Sprache macht Abdruck in der Seele“, so zitiert RS Herder, und sagt damit, dass ein universaler Algorithmus vermutlich schon einen passablen ethischen Durchschnitt zu Wege bringt, aber nicht schon deswegen Akzeptanz erzeugt. Dem widerspreche ich nicht, gebe allenfalls zu bedenken, dass sich die globalen Metropolen schrittweise einem einheitlichen Phänotypus angleichen, dass das Internet die digital natives vergleichsweise einheitlich konditioniert, dass also, will ich sagen, globalization is heaving regionalism for lunch.

Mein fünfter Hinweis ist praktischer Natur und vielleicht nur eine graduelle Kritik fehlender Lautstärke. In meinen Augen diskutiert RS eine absehbare Herrschaft der Maschinen zu philosophisch! (Klima- …) Analytisch lässt er am present- oder regional bias keine Zweifel zu (angesichts der katastrophalen Entwicklungen werden so die Ausreden/Ausnahmen für die je eigene Gegenwart oder Region benannt; S. 62), in der Materialisierung des Notwendigen wagt er sich jedoch nicht allzu tief in den politischen Matsch.

[In diesem Strang der Diskussion spielen die bestehenden (vor allem energetischen) Vektoren als Gegenspieler der gesellschaftliche Verfassung die entscheidende Rolle – es ist wieder ein Konflikt zwischen Soll und Sein. Alles, was wir wissenschaftlich und statistisch erfassen, lässt für eine hoffnungsvolle Interpretation wenig Raum. Der Klimawandel findet statt und selbst die Aussichten auf seine Begrenzung verlieren an Boden. Die Gesellschaft reagiert auf das anwachsende Katastrophenszenario mit Regression: Der Autoritarismus, der in China, Russland, der Türkei und vermutlich bald auch wieder in den USA dominiert, wurzelt letztlich in den genannten biases. Die Regression tritt in zwei Formaten auf: Mehrheits-besoffen furchtlos und Dummheits-beseelt, individualistisch, rückwärtsgewandt, leugnend, durch vermeintliche Entlastung verschärfend einerseits, und als kollektivistisch-vorsätzliche, repressiv gestützte Unmündigkeit andererseits: „Wir“ können es eh nicht beurteilen, die da oben werden schon wissen, was gut für uns ist.].zip

So oder so führt diese auf’s Gröbste komprimierte Sicht hin zu einem Weltzustand Merkel’scher Alternativlosigkeit. „Demokratie ist nicht mehr zwingend die beste unter den schlechten Staatsformen.“ (S. 68) Sagen wir es ruhig deutlicher: Demokratische Prinzipien und institutionalisiert verschleppende Organisationsformen erweisen sich ebenso als Gattungs-gefährdend (und nur im Format anders) wie der autokratische Populismus und Interessen-gesteuerte Quartalsdogmatismus. Dann jedoch genügt es nicht, die Entwicklung der Möglichkeiten auszubalancieren (könnte so kommen oder anders) und die Alternativen dialektisch unbeschieden zu belassen. Es müssen praktische Aussagen getroffen werden, mit konkreten Folgerungen. Das blosse Abwägen (S. 68 ff) ist der Welt, die sich real und prozessual vollzieht, nicht genug. Ich sage damit natürlich nicht, dass RS den Druck der Realitäten übersieht oder gar ignoriert; doch überführt er seine Argumentation so weit in die akademisch-philosophische Region, dass die realen Täter der Gegenwart es bei dem interessiert-wohlwollenden Stirnrunzeln eines „spannenden“ Vortragsabends belassen können.

 

p.p.s. Härter am Wind

Auftritt Mephistophels: „So muss dann doch die Hexe dran.“ Oder, mit Arthur C. Clarke gesprochen: „Jede hinreichend fortschrittliche Technologie ist von Zauberei nicht zu unterscheiden.“ Ich bin unsicher, ob RS zustimmend oder im Sinne einer Warnung schreibt:

„Die viel-beschworene Öko-Diktatur wird eine KI-Diktatur sein. Eine Diktatur, die sich ergibt, wenn der technische Stand es zulässt und die nötige Zahl der Willigen erreicht ist.“ (S. 74)

Auch fehlt in diesem Argument ein Blick auf den Veranstalter: Wem gehört diese KI? Peter Thiel? Dem europäischen Parlament? Xi Jinping? Oder wäre die KI, Gott bewahre, im Besitz revolutionärer Volksmassen? Wo, welcher? Unberücksichtigt bleibt auch die politische Reaktion, als würde sich das politische Geschehen gradlinig entwickeln. 

Schliesslich bleibt die Interaktion zweier oder mehrerer KIen aussen vor. In der Literatur (fiction, not science) gilt dieser Auseinandersetzung stets ein besonderes Interesse. 

Im zweiten Band „QUBE“ der Hologrammatica-Trilogie von Tom Hillenbrand wird (u.a.) die Un-/Möglichkeit der Koexistenz zweier KI als Sicherheitsfrage diskutiert. Hillenbrand nimmt ein Motiv von Neal Stephenson (aus Snow Crash) wieder auf, nachdem in der virtuellen Welt (und so auch in der Kommunikation zweier KI) eine beliebige Form der Information (neben Texten, Bildern, Tönen …), äusserlich unerkennbar, potentiell tödlichen Code transportieren kann. Da sich aber Information wie ein Virus (wie auch Drogen und Religion) selbst reproduzierend, mutierend und parasitär verbreite (so Stephenson), sei es (jetzt Hillenbrand) keiner KI möglich, alle möglichen, also denkbaren Angriffe, zu antizipieren – und insofern würde früher oder später die (zufällig) eine KI die andere „ausschalten“. (IvD; Tractatus II, S. 42)

In meinen Augen, und hier schalte ich meinerseits mal einen Gang hoch, schwächelt jede Argumentation, in der der Mensch als landing platform der Evolution angesehen wird, als Endstation der Entwicklung. Im zweiten Abschnitt seines Essays behandelt RS die Herrschaft der Maschinen als einen (am Ende gar wünschenswerten?) Antagonismus. Das ist immer noch altes Denken: es kommt darauf an, nach einem symbiotischen Pfad zu suchen. Von Christoph Werner stammt die Parole:

„Entweder kommt die KI ins Hirn oder das Hirn kommt in die KI“.

Vermutlich beides, ergänze ich, nicht aber keins von beiden!

Mal halblang! Das ziemlich gross aufgesetzte Human Brain Project, das mit einer Milliarde Euro von der EU und ihren Mitgliedsländern gefördert werden sollte, ist an seinen überzogenen Zielstellungen nahezu gescheitert und köchelt heute mit nur kleiner Flamme. Ein ähnliches Desaster, ganz anderes Thema, hatte seinerzeit das Human Genom Project erfahren: Craig Venter hatte dem Projekt die Schau gestohlen. Dennoch deutet das womöglich auf eine Parallele: Denn Elon Musk betreibt mit „Neuralink“ eine Firma, die (mit einem Series C funding von 205 Mio $) nach einem Interface zwischen Hirn und Computer sucht.

Vision oder Wolkenkuckucksheim? Flapsig gesprochen ist noch jede noch so "spinnerte Idee" irgendwann Wirklichkeit geworden und ich selbst vermute in der Verbindung von Hirn und Computer die einzige Überlebenschance der Gattung Mensch, wenn denn eine starke KI auftritt. Zugleich mutmasse ich mit dem Aufkommen von Hybriden den Beginn einer neuen Klassengesellschaft, etwa entlang der Grenzlinien:

  • Autonome (KI im Hirn) /
  • Souveräne (Zugriff auf eine eigene, stationäre KI) /
  • Kontrollierte (Zugriff auf KI-Dienste) /
  • Administrierte (Hirn in der KI).

Ich bin nicht einmal sicher, ob oder wo da eine rote Linie verläuft. Im Sinne von RS könnte man „die Administrierten“ auch als Rückkehrer ins Paradies bezeichnen, in einen „Lebensraum“ nämlich, der sie – im doppelten Sinn – unterhält, zugleich jedoch keine Pflichten auferlegt. Diese und ähnliche Überlegungen wurden bereits in einer Reihe von SF-Erzählungen – und auch auf höherem Niveau – abgebildet. Es klingt beinahe ketzerisch: die praktischen Konsequenzen der real stattfindenden Forschungen werden in der einschlägigen Literatur, so sie denn ein gewisses intellektuelles Niveau erreicht, mit grösserer Ernsthaftig- und auch Verantwortlichkeit diskutiert, als, sagen wir, im Feuilleton.

Mit meinem siebten Einwand fasse ich meine Zweifel an der Domestizierbarkeit einer KI zusammen. Nicht, weil ich sie für unnötig erachte, sondern für naiv; mein Bild von der Entwicklung der KI gleicht eher dem von einer unkontrollierbaren Kettenreaktion. Das ist unvermessenes Gelände, ich spekuliere! Doch der Verdacht, dass KI ein geheimes Leben haben wird, bevor wir merken, was dabei herauskommt, ist nicht auf meinem Mist gewachsen: die SF-Literatur behandelt das Thema, von HAL bis Southern Reach oder Hologrammatica seit Jahrzehnten … Mulmig jedoch wurde mir, als Alpha Go, die Google-KI, die 2016 gegen Lee Sedol im Go gewann, ihren berühmten Move 37 machte. Anders als Schachcomputer zuvor, die die ihnen bereitgestellte Schachliteratur statistisch auswerten, hat Alpha Go diesen (erfolgreichen!) Zug offenbar selbst entwickelt.

Der kritische Punkt ist nun dieser: wenn eine schwache KI einmal damit angefangen hat, auf eigene Gedanken zu kommen, so geschieht das a) in der Taktfrequenz ihrer Prozessoren, also b) auf der hockeystick-Kurve, c) ohne dass wir hinschauen (können!), und d) mit Ergebnissen, die wir vermutlich nicht verstehen, so wir sie denn zu Gesicht bekommen. Hat die Maschine darüber hinaus Zugriff auf das Internet, ist die Büchse der Pandora geöffnet. In diesem Punkt halte ich die in der Wirkung beschwichtigenden Kontroll-Appelle für fahrlässig: so wie F+E unreguliert und global an zahllosen Schauplätzen voranschreitet, erscheint mir ein GAU unvermeidbar. Vielleicht ist es gar kein „Einwand“?:

„Der Algorithmus hat keine Freunde. Hat er sich einmal von seinen Programmierern befreit, entwickelt er sich ohne soziale Beziehungen und lokale Verbindlichkeiten.“ (S. 63) Dann aber: „Darin liegt sein Vorteil und Versprechen: …“ (ebd.)

Das mündet in meine letzte Fussnote, sie ist unverhohlen pessimistischer Natur: Die Realität findet ohne die Philosophie statt. Der Essay von Roberto Simanowski ist ernsthaft, umfassend und in seiner intellektuellen Wucht sogar beglückend. Nur wird er die Entwicklung der KI (das sind ja namentlich all die chinesischen, japanischen, kalifornischen, auch deutschen …Entwickler, die mit Vorsatz nicht wissen was sie tun und in weitgehender Weltentrücktheit die Sachordnungen der Zukunft einrichten) kaum erreichen, geschweige denn beeinflussen und schon gar nicht verhindern. Selbstverständlich braucht die KI einen Ordnungsrahmen, global und dogmatisch und gestern; nur hat der nicht stattgefunden – und ist auch nicht in Aussicht! Hilfsweise, mit Sinn oder ohne, können wir den Schaden lediglich antizipieren und auf einen künftigen Ordnungsrahmen sinnen, der DAMIT umgehen kann.

Wenn wir Glück haben, geht der Autor im nächsten Schritt diesen nächsten Schritt weiter.