ChatGPT – und die Clickworker in Kenya

Was Adorno schon wusste

Ist die KI jetzt Schuld?

 

 

 

Den „Fall ChatGPT”: Damit die KI ordentlich antwortet, wurden Clickworker in Kenya beschäftigt. Sigrid Stinnes hat mich auf LinkedIn angestossen, über die Sache einmal „philosophisch” nachzudenken. Vielen Dank auch! Womit hab ich das verdient?

Wenn man ihm zuhört: sympatisch!

Noch keine Bewertungen vorhanden

Ich frach mal ganz unschuldig

ChatGPT wurde mit ungeheuren Datenvolumina trainiert, vielfach aus dem Internet. Damit ChatGPT keine gewaltverherrlichenden, sexistischen, rassistischen oder sonstwie anstössigen Antworten liefert, muss die Software mit solchen Inhalten sozusagen geimpft werden. Eine TIME-Recherche hat die Praktiken offengelegt, mit denen diese „Impfung” ermöglicht wurde: Sogenannte Datenbeschrifter haben grosse Mengen Textbeispiele klassifiziert; die Ergebnisse wurden dann in die Software zurückgespielt.

Bei der Klassifizierung von anstössigen Inhalten kam es zu anstössigen Geschäftspraktiken: die Arbeiten wurden nach Kenya ausgelagert und von drei Teams mit zusammen 40 Mitarbeitern ausgeführt. Während der Auftraggeber, OpenAI, für diese Arbeiten $12,50 pro Stunde bezahlt hat, wurden die Datenbeschrifter mit $1,32 bis $1,44 (netto) bezahlt. Die 4 Mitarbeiter, die von TIME interviewt wurden, bestanden auf ihrer Anonymität, um ihren Lebensunterhalt nicht zu gefährden.

Die Arbeit mit den durchweg anstössigen bis „unerträglichen” Inhalten gilt als psychisch sehr belastend. Eine „Entlastung” der Arbeitnehmer durch professionelle therapeutische Begleitung blieb weit hinter den Notwendigkeiten zurück (soweit eine knappe Zusammenfassung des TIME-Artikels).

  1. Die KI kann nichts dafür.
  2. OpenAi ist ein amerikanisches Unternehmen.
  3. Die User müssen sich auf Adorno besinnen.
  4. Was könnte man wollen?

Der Vorgang ist geeignet, zahlreiche Facetten zu verquirlen und den Blick auf eine moralische oder philosophische Bewertung zu vernebeln. Ich will versuchen, die für mich erkennbaren Aspekte zu isolieren:

Die KI kann nichts dafür.

Zunächst klärt uns der TIME-Artikel über einen zentralen Hintergrund der ChatGPT-Entwicklung auf: Neben der (möglicherweise genialen) Arbeit am Programm gibt es einen (vermutlich ekligen) Arbeitsanteil bei der Bewertung der Inhalte.

Die gängige Interpretation erklärt das Werkzeug (Programm) für „nicht schuldig”, natürlich! Wird es NICHT angewandt, könnte Schuld gar nicht erst entstehen, wird es aber angewandt, ist nicht das Werkzeug Täter, sondern der Anwender. Ob ein Anwender eine KI einsetzt, um ein Stromnetz auszubalancieren oder dazu, auf unbestimmte Fragen möglichst sinnvolle Antworten zu geben, oder, auch denkbar, gruselige Vernichtungswaffen zu konstruieren: die Zwecke sind allesamt beim Anwender. Und so kann jede Bewertung nur den Anwender betreffen, nicht aber das Werkzeug (und das gilt auch für Bomben).

Es besteht die Möglichkeit, dass KIn (und sei es, zu einem späteren Zeitpunkt) „autonom handeln” – so beim Beispiel Netzmanagement. Auch dann müssen wir, Stand heute, davon ausgehen, dass sich die KI die Parameter ihres Handelns nicht selbst ausgedacht hat. Erst wenn eine KI in die Nähe eines Bewusstsein kommt, käme, könnte Verantwortung entstehen und ihr (als Schuld oder Verdienst) zugewiesen werden.

Stand heute können wir also sagen: was auch immer mit einer KI angestellt wird, die Verantwortung liegt beim Anwender; die Technik also solche bleibt b.a.w. neutral.

OpenAi ist ein amerikanisches Unternehmen.

Damit fallen alle Urteile oder Bewertungen, wenn es um ChatGPT geht, auf die Firma OpenAI und ihre verantwortlichen Manager zurück. Sie wurde die Aufgabe gestellt und auch die Rahmenrichtlinien für ihre Ausführung. Dabei stiess man auf das (inzwischen von facebook bekannte) Phänomen, dass Trainingsdaten, egal welche, nicht neutral sind und daher Ergebnisse auf einer statistischen Skala erzeugen – von „gut über vertretbar bis zu mangelhaft oder unerwünscht”.

Die von OpenAI gestellte Aufgabe führte unkorrigiert zu kritischen, bis hin zu inakzeptablen Ergebnissen. Die Korrektur erwies sich als grundsätzlich möglich, aber ökonomisch grenzwertig; vor allem aber drohten nachhaltige Image- und Marketingschäden sowie Prozessrisiken, wenn im Zuge der „Datenbewertung” beauftragtes Personal von der Arbeit und deren Bedingungen berichtet – oder gar psychische und gesundheitliche Schäden ruchbar würden. Ein Outsourcing (Hauptsache weit weg, Hauptsache keine US-Amerikaner beteiligt) erschien als probate Massnahme.

Das war kurzsichtig.

Was diese unternehmerischen Aspekte betrifft, so ist hier weder moralisch noch philosophisch ein Blumentopf zu gewinnen: Über die Rahmenhandlung (der Kapitalismus) und ihre Bedingungen (der Markt) ist alles gesagt: Der Fall zeigt, soweit ich sehe, keine neuartigen Facetten. Jetzt mag es eine mehr oder weniger grosse Welle „Mäh-Mäh” geben, wenn es um den „eigentlich doch so sympatischen”, und, wie es heisst, auch genialen OpenAI-Chef Sam Altman geht. Bis Februar 2018 hatte Elon Musk dessen Position inne, das sagt eigentlich schon alles.

Und nichts von dem Gesagten entlastet OpenAI. Ihr Vorgehen ist eine kapitale Schweinerei: business as usual.

Die User müssen sich auf Adorno besinnen.

Um eine Nuance interessanter ist die Frage, ob etwa User „mit-verantwortlich” werden, wenn sie – in Kenntnis der inhaltlich und ökonomisch üblen Arbeitsbedingungen in Kenya – die App gleichwohl nutzen. In dieser Frage ist wohl zunächst mit dem Herrn Adorno zu reden:

Es gibt kein richtiges Leben im Falschen.

Unschuld – nimm Müll, Energie, Klima, Ressourcen etc. – ist in diesem, unseren Leben nicht zu erwirtschaften. Es ist aber auch absurd, einen Nutzer für die Bedingungen und Fehler verhaften zu wollen, die der Hersteller eines Nutzgegenstandes „auf sich geladen hat”. Besonders die Überschriften-geile Öffentlichkeit sucht stets nach einem Twist: dieser Vorgang ist selbst nicht besser als der beklagte oder in Anspruch genommene Sachverhalt.

Was könnte man wollen?

Das Beispiel ChatGPT macht deutlich, dass es so etwas wie einen „Green Field Approach” nicht gibt. Die Welt ist die Bedingung dessen was geschieht, und dass sie, die Welt, nicht eindeutig, neutral oder unschuldig ist, ist eine hinlänglich bekannte Tatsache. Dass der Kapitalismus ein Eisberg ist, dessen dunkle Seiten unter der Wasseroberfläche liegen: no news. Es ist oder wäre zugleich völlig absurd, „die Probleme oder Risiken mit der KI” am Beispiel ChatGPT aufhängen zu wollen, es wäre ein Kategorienfehler.

Wenn es „Probleme” mit dieser oder kommender KI gibt, so sollten sie tunlichst eine Etage höher diskutiert werden, nämlich in einem Umfeld, dass sich mit den WIRKUNGEN (etwa auf den Arbeitsbegriff, etwa auf den Sinn des Lebens …) und den dynamischen Gefahren (etwa die Möglichkeiten einer unkontrollierten Verselbständigung der Technik) von KI beschäftigt.