Hologrammatica ist ein relativ frisches Buch von Tom Hillenbrand, eine Science Fiction/Thriller/Action-Variante, in dem er sich mit den Entwicklungsperspektiven der KI auseinandersetzt.
Der Letzte macht das Licht aus.
Tom Hillenbrand schreibt "Hologrammatica"
keine Rezension
Wer lesen kann, ist klar im Nachteil.
- Zunächst ging mir das Buch ein wenig auf die Nerven, weil es über die erste Hälfte als ein Erklärstück erscheint, dass sich als SF-Thriller tarnt. In diesen Aspekten erschien mir der Angang recht hölzern, also ästhetisch; was nicht dadurch besser wurde, dass mir die erklärten Begrifflichkeiten weitgehend geläufig sind (was man als Autor nicht voraussetzen kann, also Verständnis dafür). In der zweiten Hälfte haben die Spannungsmomente die Überhand, dann aber gehen mir die Actionteile auf den Keks. Und der Schluss ... Also sagen wir so: literarisch ... naja. Deswegen wird das jetzt auch keine Rezension.
- ABER: das ist mir egal, weil mir das Buch inhaltlich einige Anregungen gegeben hat.
- Zu den (möglichen) Entwicklungen der KI äussere ich mich ich seit einiger Zeit kritisch; als eine Art Wasserscheide empfand ich die Meldung vom 29-VII-2017, wonach facebook eine KI abgeschaltet habe, nachdem diese eine eigene Sprache entwickelt hat, der die Entwickler nicht mehr folgen konnten. Seit Hillenbrand nun erscheint mir das KI-Thema als existentielle Gefahr. Denn seine Story macht diese Gefahren sehr transparent und – im Sinne einer Lese-Erfahrung – auch erlebbar. Eine „eigene Sprache“ der Maschinen, die Menschen nicht mehr verstehen können, ist dabei nur ein Beispiel oberhalb der Wasserlinie (des Eisbergs).
- Was zeichnet eine KI aus? Ich meine es kommen vier Faktoren zusammen: die Rechenleistung erlaubt einer „rechnenden Instanz“ Urteile, die Menschen in ihrer Breite, Tiefe und Geschwindigkeit nicht mehr nachvollziehen können. Die Vernetzung ermöglicht es einer KI, Ergebnisse global und in Sekunden wirksam werden zu lassen (Beispiel: Börsencrashes innerhalb weniger Minuten). Damit diese „Vorteile“ greifen können, muss eine KI autonom (intentional) handeln können, sie muss also exekutiven Zugang zu den Systemen haben, auf die ihre Entscheidungen einwirken (sollen); anders gesagt: Entscheidungen der KI sind von keiner menschlichen Instanz kontrolliert und, ob des globalen und zeitlichen Wirkungsgrades irreversibel. Diese Alleinstellungen „Datenraum“, „Geschwindigkeit“, „Vernetzung“ und „Autonomie“ arrondieren eine KI zu einer Instanz mit einer „Intelligenz“, die – Hillenbrand siedelt sie irgendwo im Bereich IQ 500 an – für Menschen nicht mehr erreichbar ist. Dabei habe ich von Bewusstsein, also Zielen, Strategien, Moralen ... noch gar nicht gesprochen.
- Hinzu kommt ein fünfter Faktor, eine Beurteilungsunschärfe: Zum Perfektionsgrad einer KI sind keine Urteile möglich (ob also irgendwelche „versteckten“ Fehler eingebaut wurden, die nur unter xy-Bedingungen erkennbar und nur unter yz-Bedingungen wirksam werden).
- Sind wir soweit? Keine Spur. Kilometer entfernt. In einem Aufsatz von Christoph Kappes finden sich zum Stand der (noch relativ trübern) Aussichten sehr viele Quellen zusammengeführt. Mich kann das aber nicht beruhigen (Stichwort: exponentielle Ergebnisentwicklung).
- Bis heute verhandeln wir KI gleichsam als einen Wettbewerbsfaktor im globalen Verteilungskampf. Ich wüsste nicht, mit welcher Logik man dagegen argumentieren könnte, denn solange die Verhältnisse sind, wie sind, werden stets diejenigen in den Nachsprung geraten, die sich einer solchen Entwicklung „verweigern“ oder sie gar verschlafen. In meinem in Punkt 3. verlinkten Aufsatz habe ich zu zeigen versucht, dass die Entwicklungsstränge im Themenfdeld KI (schwache vs. starke KI) in einen Double Bind führen: wir können auf KI nicht verzichten – und alle haben Recht, wenn sie Fortschritte und Investitionen anmahnen – und wir können uns eine KI existentiell nicht leisten – und alle haben Recht, wenn sie mannigfache Weltuntergangsszenarien imaginieren.
- Das ist ein klassischer Fall von vorlaufendem Regulierungsbedarf. In meinen Augen ist das aber eine gegenüber dem Entwicklungsdruck zu schwache und zu langsame Formulierung. The time is now! Wenn sich „die Risiken“ erst einmal realisiert hätten, wären sie nicht mehr einzufangen.
- Wenn ich das jetzt zusammenfasse, so verhilft uns Tom Hillenbrand zu der Erkenntnis, dass wir (die Gesellschaft, die Unternehmen ...) mit der KI Entwicklungen befördern, deren Auswirkungen wir aber (prinzipiell: es übersteigt unsere Fähigkeiten!) nicht beurteilen können. Hillenbrand befindet sich in guter Gesellschaft: In seinem Buch „Prey“ hat Michael Crighton den gleichen Case für die Nanotechnologie aufgemacht, Daniel Suarez, Marc Elsberg, Kazuaki Katano, auf ganz anderen Gebieten Yuval Noah Harari und auch Richard David Precht, sie alle behandeln ähnliche Fragen. Im Kontrollzentrum stehen alle Lämpchen auf dunkelorange; es war aber schon länger keiner mehr da.
- Und jetzt die Conclusio: ALLES VERBIETEN. Das hilft. Bin ich mir sicher.
- Ich muss mich nochmal mit diesen Lemmingen beschäftigen.
Algorithmen sind mehr oder
Algorithmen sind mehr oder weniger simple Verfahrensvorschriften oder Regeln. Es kann aber - aus Gründen der Logik - keine Regeln geben, die ihre eigene Anwendung regeln. Also kann es auch keine "künstliche Intelligenz geben". Wenn ich mich, obwohl ich dafür nicht ausgebildet worden bin, in das Cockpit eines Airbus A380 schleiche und die vier Triebwerke starte, ist nicht die Maschine dafür verantwortlich, was anschließend geschieht.
Herzlichen Dank für Ihren
Herzlichen Dank für Ihren Kommentar. Forschung und Praxis sind bereits weiter: siehe Punkt 3, die Meldung von facebook, nach der eine KI eine eigene Sprache entwickelt hat .. siehe auch meinen Aufsatz "Risiken der AI" in der Rubrik tl;dr.
Ich stimme allerdings mit Ihnen darin überein, dass das Fliegen eines A380 auch eine menschliche Intelligenz herausfordert ... :-)
Mein Punkt ist nicht, dass
Mein Punkt ist nicht, dass Maschinen nicht schneller in der Datenverarbeitung sind (es gibt Schachroboter, Satelliten und Drohnen und Taschenrechner). Mein Punkt ist, dass bei ihnen - wie bei einem Zombie - geistig niemand zu Hause ist. Dass eine Maschine sehr kompliziert sein kann, ist keine Frage. Wer versteht schon wirklich, wie eine Dampflokomotive funktioniert? Es gibt keinen prinzipiellen, sondern nur einen graduellen Unterschied zwischen meinem Airbus und Ihrer "Sprache" entwickelnden Facebook-Maschine. Wir werden niemals von unseren Computern unterworfen, sondern wir unterwerfen uns ihnen höchstens selbst. "Eine Zivilisation, die sich selbst ihren Artefakten ausliefert und die philosophische und ethische Grundlagenreflexion an den Rand drängt (weil die unter anderem zu mehr Regulierung und Umsicht im Umgang mit 'Fortschritt' führt), wird sich früher oder später in eine geistlose Cyberdiktatur verwandeln" (Markus Gabriel). Maschinen machen die Welt niemals "intelligenter". Nur Menschen machen sie weniger intelligent.