KI – Die Kopie als Original

Epochenbruch IV

Urheberschaft – das letzte Eigentum

15-07-2023
 

Am 19.IV 2023 hielt Amrei Bahr unter dem Titel „Alles nur geklaut? – ein kopier-ethischer Blick auf ChatGPT” einen Vortrag an der Justus Liebig Uni, den der Deutschlandfunk in seiner PodCast-Serie „Hörsaal“ am 26.Mai ausstrahlte.

Amrei Bahr ist Juniorprofessorin für Philosophie der Technik & Information an der Uni, promovierte 2017 in Münster über die moralischen Rechte von Urheber*innen an ihren geistigen Schöpfungen, war Fellow der Forschungsgruppe „Ethik des Kopierens“ in Bielefeld und zuletzt Postdoc in Düsseldorf.

Hast Du Dir das ausgedacht?

Average: 4 (2 Bewertungen)

I.

Ausgehend von der Entwicklung der Digitalisierung, dann dem Filesharing und insbesondere seit „Napster“ für grosse Aufregung gesorgt-, und der Musikindustrie beinahe zum Untergang verholfen hatte, beschäftigt mich das Thema Copyright. Also schon lange. Dabei richtete sich mein Blick zunächst (beruflich) auf die Legitimation der Verwertung, streifte im Verlauf aber auch die eine oder andere grundsätzliche Frage: gibt es eigentlich und überhaupt einen eigenständigen Gedanken? Hier und da habe ich mich dazu geäußert, zuletzt im Appendix meines jüngsten Buches „Tractatus II“, in dem ich zu den Quellen meiner Überlegungen folgendes schrieb:

0001
Du kommst leer und dumm zur Welt. Nichts, kaum etwas, Weniges, was Du je denken wirst, ist, flapsig gesprochen, auf Deinem Mist gewachsen. Von der Geburt an kopierst und inkorporierst Du alles und jedes, wenn es Dir nützlich erscheint.

0002
Zu einem späteren Zeitpunkt in Deinem Leben kommt Dir vielleicht der Gedanke, dieser oder jener davon wäre Dein eigener. Meistens irrst Du: fast alles, was Dir einfällt, ist eine Kompilation von und aus Sachverhalten, die Du von irgendwoher hast, nur nicht aus Deinem Kopf.

0003
Gelegentlich, selten genug, gelingt es, im Verlauf undurchsichtiger Vorgänge zu Aussagen zu gelangen (nennen wir es Intuition), die vor Dir niemandem eingefallen sind. Oft ist dann Logik im Spiel: Dir gelingt eine Ableitung aus dem Vorhandenen unter Anwendung der Gesetze des Vorhandenen.

0004
Auch wenn vor Dir noch niemand diesen einen Gedanken gedacht hat, muss er nicht wirklich „neu“ sein: Selbst unsere „nie zuvor gedachten“ Gedanken sind in aller Regel „nur“ Permutationen des Vorhandenen; sehr gern wird der olle Wein lediglich von einem neuen „Sprachschlauch“ camoufliert. Dass es zu einem wirklich Neuen Gedanken kommt, … selten – es kommt nicht vor, eigentlich nie, fast nie.

0005
Ein gewisser Hinterhalt wohnt aber sogar in einem (wirklich) Neuen Gedanken: Er muss nämlich denkbar sein. Wenn also Albert Einstein seine berühmte Formel findet, erfindet, neu denkt, so MUSS deren Substanz oder Aussage IN der Welt sein. Andernfalls könnte er sie nicht, um ein wenig [… hüstl] zu heideggern, aus dem Nichts „entbergen“ (oder das hätte keinen Gehalt).

Insofern ist mein Interesse vorbereitet und keineswegs zufällig, aber auch, das muss ich einräumen, einigermaßen speziell. In dem genannten Vortrag von Amrei Bahr geht es zudem um ChatGPT und die Frage, ob eine KI für die Aussagen verantwortlich ist (möglicherweise sogar ein © reklamieren könnte), die sie oder es erzeugt.

So eine Fragestellung führte bei mir beinahe zu Pawlow’schem Speichelfluss.

„Wenn ich ChatGPT einen Artikel schreiben lasse, wer ist dann eigentlich der Autor?“ Folgen wir Frau Bahr, so ist ChatGPT ein Tool, wie das Programm Word … oder ein Taschenrechner, der auch nicht „Autor“ des Ergebnisses meiner Rechenanfrage „Wieviel ist 5x5?“ ist. Insofern, ich nehme das Ergebnis vorweg, sei ChatGPT nicht „verantwortlich“ für die Antworten auf meine Prompts.

Ich halte die Antwort für unterkomplex: Seit Googles „AlphaGo“ im Spiel gegen Lee Sedol den berühmten Zug Nr. 37 geführt hatte,

»„… Michael Redmond, to squint in disbelief at the match’s live video feed. “Thats a very surprising move,” he said, his head pivoting back and forth between the board and the monitor to make sure he had not gotten it wrong. At that moment, a clearly rattled Sedol left the room;  he returned a few minutes later and took 15 minutes for his next move. The commentator was clearly impressed by AlphaGos move, and did not see it as a mistake. Speaking to his co-commentator, he said:
„I would be a bit thrown off by some unusual moves that AlphaGo has played. … Its playing moves that are definitely not usual moves. They’re not moves that would have a high percentage of moves in its database.
So its coming up with the moves on its own. … Its a creative move.“«

hat die Frage der Verantwortung einer KI ein neues Level erreicht – und wer sich speziell mit Fragen der Kopie und der Urheberschaft beschäftigt, sollte das reflektieren (siehe dazu unbedingt auch die Ezra Klein-Show vom 11.Juli mit Demis Hassabis).

II. „Alles nur geklaut?“

Die Kopierethik nimmt Fragen der Urheberschaft in den Blick. In dem Vortrag wirft Frau Bahr drei Fragen auf:

    1. Erzeugt ChatGPT (immer?) Kopien?
    2. Erzeugt ChatGPT Plagiate?
    3. Kann ChatGPT Mitautor eines Textes sein?

Solche Fragen können (natürlich) erst dann geklärt werden, wenn Einigkeit über die zugrunde liegenden Definitionen besteht: Was ist ChatGPT? Was ist eine Kopie, was ein Plagiat, ein Autor?

Gegen alle Intuitionen, die im „Umgang“ mit ChatGPT entstehen können, handelt es sich doch „nur“ um eine Software, eine Sammlung von Algorithmen. Diese Software errechnet auf Basis eines gigantischen Berges von Trainingsdaten die Wahrscheinlichkeit „des nächsten Wortes“ in einer textlichen Abfolge; sie „antwortet“ nicht – wenn wir unter einer Antwort eine (Un-)Wissens-gestützte Reaktion auf eine Frage verstehen –, sondern erstellt eine Prognose über wahrscheinliche Wortfolgen nach einer „fragenden Initiation“.

Zu den Fußangeln dieses Vorganges gehört, dass es „uns“ (Anwendern) unmöglich ist, jene Datenberge (= Quellen) zu identifizieren, geschweige denn zu überblicken, die (möglicherweise) in die Prognose eingeflossen sind und mindestens ebenso wenig können wir genaue Auskunft darüber geben, wie die Algorithmen zu ihrer Prognose gekommen sind. Beispielsweise erklärt Demis Hassabis in der oben zitierten Ezra Klein-Show, dass und ungefähr wie AlphaGo (an deren Entwicklung er massgeblich mitgewirkt hat) sich die Regeln des Spiels – nämlich OHNE Vorwissen in Millionen von Partien gegen sich selbst – selbst beigebracht hat.

Bereits an dieser Stelle müsste der Philosophin das Spielfeld entgleiten, denn die spezifischen Gestehungsbedingungen einer KI werfen die Frage auf, ab wann oder durch was ein „Handeln“ (für und vor anderen) verantwortlich ist. Frau Bahr steht auf dem Standpunkt, dass die KI ohne eine „menschliche Initiation“ nicht handelt, sozusagen „nicht von sich aus aktiv wird“. Das gilt auch für den Zug 37, doch hier gerät die Vorbedingung (Initiation) ins Wanken. Zwar wurde das Spiel gegen Lee Sedol von Menschen veranstaltet (und damit initiiert), im Zug 37 jedoch hat „der Computer“ anders gehandelt, als je ein Mensch vor ihm –, und insofern kann man den Zug 37 nicht mehr als „konsekutives Handeln” subsummieren. Seither hängt die Frage unbeantwortet in der Luft, wo denn genau die Verantwortung für ein Handeln beginnt. Wir erinnern Arthur C. Clark/Stanley Kubrick: HAL ist „auch nur“ eine von Menschen hergestellte Maschine, die sich in einem kritischen Moment (vermutlich, so jedenfalls legt es die Filmhandlung nahe) ihrer „Prädisposition” (und den Asimov’schen Gesetzen) entgegenstellt.

Aber bleiben wir zunächst noch bei Vortrag der Frau Bahr: Warum, fragt sie, interessiert es uns, wer Urheber eines Textes ist? Ein Grund dafür seien „Bestimmungsrechte an kreativen Schöpfungen“, nämlich als Grundlage eines Entgeltanspruchs – immerhin sei Arbeit in das Werk geflossen –, aber auch als Hoheit über einen Gebrauchsraum. „Wenn wir wollen, dass Leute etwas hervorbringen, dann müssen die irgendeine Form von Anreiz haben, und das sind eben diese Bestimmungsrechte.“

Wie sich auch der Homo oeconomicus als eine irrige Vorannahme der Ökonomie erwiesen hat, erscheint mir dessen „Verlängerung“ in die Urheberschaft gleichfalls wenig tragfähig: Die Geschichte der Literatur, der Erfindung, der Musik, der StartUps, des Sports … lebt von … der Hoffnung. Nur angestellte Wissenschaftler (Brotgelehrte heissen sie in Schillers Antrittsrede in Jena) oder Lohnschreiber, Auftragsmaler … brauchen einen (materiellen) Anreiz (ich räume ein: in der „Hoffnung“ wohnen AUCH ein paar materielle Anreize; bleiben aber weit überwiegend unerfüllt. Trotzdem machen die Hoffenden weiter ...).

Lassen wir die Motive aussen vor und betrachten den kreativen Vorgang nur in seinen materiellen Grundlagen, so braucht es einen Urheber (Subjekt), für den – und einen Gegenstand (Text, Bild, …), an dem sich Ansprüche materialisieren; sagt Frau Bahr – und dem stimme ich zu. Dabei richten sich an den Gegenstand (und unterwegs dann mittelbar auch an den Urheber) gewisse Forderungen, die gemeinhin als Schöpfungshöhe benannt werden: Eine „Kreativleistung“ muss begründbar sein. Ein Satz von der Art „Das Meer ist blau.“ kann das nicht für sich in Anspruch nehmen, mindestens müsste von einem „tiefen, dunklen Blau“ die Rede sein. Frau Bahr spricht von „Elaboriertheit“ und „Originalität“, lässt aber offen, woran die zu bemessen sind.

Im nächsten Schritt kommt sie zu der Frage, was eine Kopie ist. „Kopien sind Vervielfältigungen, die auf der Grundlage einer Vorlage … erstellt werden.“ Was genau zeichnet eine Kopie aus? Erste Bedingung – Frau Bahr nähert sich ihrer Definition in einer mehrstufigen Iteration – sei eine gewisse „Ähnlichkeit“; aber das reiche nicht. Nur, Beispiel, weil in zwei Sätzen jeweils alle Buchstaben des Alphabets vorkämen, seien sie nicht ähnlich. Oder anders gesagt: Irgendwie, irgendwo ähnlich ist alles, es sei nur eine Frage, was in Relation gestellt wird. Die Ähnlichkeit müsse schon „signifikant“ sein, aber für eine Kopie reiche das auch noch nicht. Wenn zwei Menschen ihren „Faust“ im Regal hätten, sei die Ähnlichkeit vermutlich signifikant, aber als Kopien würden wir die Werke dennoch nicht bezeichnen. Dafür brauche es, weiters, einen „kausalen Zusammenhang“, also eine Absicht, anstelle eines irgendwie gearteten Zufalls. Und auch das reicht immer noch nicht, sagt Frau Bahr. Wenn etwa ein Autor an einem Text arbeitet und zu dem Zweck den Text neuerlich abschreibt und ändert, so seien zwar signifikante Ähnlichkeit und Kausalität gegeben, es entstehe aber keine Kopie, sondern eine Version. Daraus leitet Frau Bahr ab, dass die Verfasser von Textkopien nicht zugleich Urheber sein dürfen. Und nun, sagt Frau Bahr, habe man alle nötigen Bedingungen beisammen: Ähnlichkeit, Signifikanz, Kausalität und fehlende Urheberschaft.

Mich befremdet zweierlei: Erstens sehe ich nicht ein, warum ich „meinen“ Text nicht kopieren können sollte; ich habe das schon hunderte von Malen getan. Die Einrede von der „Version“ überzeugt mich nicht, denn dazu wird meine Kopie erst durch einen „Eingriff“ in die kopierte Substanz, eine Bearbeitung. Zweitens: „Gleichheit“ ist überhaupt nicht gefordert?

Mir jedenfalls reicht Ähnlichkeit nicht aus, auch nicht, wenn sie signifikant ist: denn tatsächlich manifestiert sich in dem Begriff der Signifikanz, die eben keine Gleich=heit fordert, eine Identitäts-kritische Abweichung des Bildes vom Abbild. Überhaupt verstehe ich nicht, warum nicht von Bild und Abbild die Rede ist – in meinem Verständnis die sinnvollste Paraphrase für den Begriff der Kopie.

Mit „Identitäts-kritisch“ versuche ich den Unterschied zu fassen, etwa zwischen dem Buch, dass ich auf den Kopierer lege, und der Kopie, die dabei erzeugt wird: das Abbild ist in allen kritischen Aspekten mit dem Bild identisch, nur eben nicht im Format (Buch). Bei einer bibliophilen Ausgabe könnte das eine Rolle spielen, dann aber übersiedelt das Format in den „Identitäts-kritischen” Bereich. Man kommt, wenn man tiefer gräbt, vom Hölzchen auf‘s Stöcks‘gen: Selbst die „fehlerhafte” Abweichung, etwa bei einer Fehlprägung, kann Identitäts-kritisch werden. Bei Generica, das Beispiel bringt Frau Bahr, ist „nur“ der Identitäts-kritische Wirkstoff kopiert. Frau Bahr benennt die Abweichung und verdichtet sie in der Formulierung: „No Copy is Perfect.“ – schon allein weil Original und Kopie nicht die gleichen raumzeitlichen Koordinaten teilen. Diesen Aspekt widerum halte ich für wenig tauglich, weil die raumzeitliche Abfolge (erst das Bild, DANN das Abbild) bereits im Begriff der Kopie logisch kodiert ist.

In anderen Worten: um eine Kopie zu qualifizieren, müsste man die Identitäts-stiftenden Merkmale eines Gegenstandes oder Sachverhaltes herausarbeiten und abgrenzen und kann erst dann unterscheiden, was „gleich“ sein muss, um „immer noch“ von einer Kopie zu sprechen.

In philosophischer Perspektive finde ich also ihre Definition unzureichend. Vielleicht, aber das sagt sie nicht, verengt Frau Bahr ihre Herleitung mit Blick auf die rechtlichen Implikationen, die in Frage stehen, wenn sie im weiteren Verlauf zur Beteiligung der KI an einer Schöpfung kommt.

Zuvor macht sie noch einen Schlenker hin zum Plagiat – dem grundsätzlich eine Täuschungsabsicht innewohne. Während das Plagiat die Leistung eines Fremden für die eigene erklärt, und damit sowohl die Entgelt-, wie auch die Verfügungsansprüchen eines Urhebers enteignet, sei es bei einer Fälschung umgekehrt: da behaupte jemand die eigene Leistung als die eines anderen.

III.

Nach diesen Herleitungen resümiert nun Frau Bahr ihre drei Fragen:

  1. Erzeugt ChatGPT (immer?) Kopien?

Frau Bahr nutzt ihre vorgegebene Definition, spricht aber sehr schwammig: Es habe sich gezeigt, dass „wir Fälle finden, in denen wir zwar noch von einer Kopie sprechen wollen“, jedoch keine Urheberrechte verletzt sähen. Oft genug aber seien die Abweichungen so gross, dass man nicht mal mehr von signifikanter Ähnlichkeit sprechen könne. Insofern zeige sich hier nur „irgendeine Ähnlichkeit”. Schwieriger noch werde es in der Frage, ob hier eine Absicht identifizierbar sei. Dem ChatGPT-Nutzer sei eine solche Absicht nicht zu unterstellen: er wisse ja nicht einmal, von welchen Quellen sich ein jeweilige Antwort ableite. Frau Bahr sieht die Diskussion hier an einer kritischen Wegscheide. Es könne nämlich sein, dass ihre, Frau Bahrs, Definition nicht mehr hinreiche und überarbeitet gehöre. Oder man einige sich darauf, dass es hinreichend Gründe gebe, bei den Ergebnissen von ChatGPT gleichwohl von Kopien zu sprechen. Oder letztlich, könnte man vielleicht doch einräumen müssen, dass ChatGPT niemals Kopien erzeuge. Frau Bahr übergibt die Frage dem Publikum, macht aber deutlich, dass sie der Behauptung zuneige, dass ChatGPT „in gewissem Sinne” Kopien erzeuge.

In meinen Augen liegen die Schwächen in der Definition. Ganz am Anfang habe ich mich selbst zitiert: Du kommst dumm und leer auf die Welt: so auch die KI. Was auch immer sie je von sich geben wird, kann nur aus dem „abgeleitet sein“, was die Programmierer der KI zur Verdauung angeboten haben: Sachverhalte, Logiken, Folgerungen, Gesetzmäßigkeiten etc., die KI hat die Welt nicht erfunden. Wie bei einem Schachspiel muss man also einräumen: Es gibt nichts Neues unter der Sonne. Alles schon mal dagewesen. In einer solchen Weltsicht gibt es gar keine Kreativleistung. Bei Heidegger wohnt dieser Sachverhalt in dem Begriff „entbergen“: Auch wenn etwas nicht sichtbar ist, kann es nur „hervorgeholt“ werden. Das Problem der Bahr’schen Definition ist also, dass sie den Quellbereich der Kopie zu eng fasst: so als wäre eine (Text-)Kopie nur dann Kopie, wenn es den Text „so“ (oder hinreichend ähnlich) schon mal gegeben hätte. Ich dagegen verorte auch in der Paraphrase eine Kopie.

Zu meiner Definition aber gelangst Du erst, wenn Du zuvor den Identitätskern des Bildes (des Vor-Bildes des Ab-Bildes) freigelegt hast. Die KI kopiert „ausnahmslos“, weil ihr Quellraum nicht etwa die Goethe- oder Adorno-Werke sind, sondern (cum grano salis) das Wissen der Menschheit. Denn die Prognose des „nächsten Wortes“ ist eine Ableitung aus der Abfolge aller jemals dem(n) Vor-Wort(en) nachfolgenden Worte. Übrigens zielt der in Kalifornien angestrengte Prozess von Ryan Clarkson gegen OpenAI auf eben diese These.

Nun wäre es schön und eindeutig, wenn es genau dabei bliebe. Leider hat der Zug 37 von AlphaGo aber gezeigt, dass die KI auf einem Weg ist, aus dem Wissen der Welt eigene Schlüsse zu ziehen – und zu neuen Antworten zu gelangen; in anderen Worten: zum Subjekt zu werden. Das ist – heute – eine Übergang irgendwo auf dem Zeitstrahl: wir können deswegen zu jedem gegebenen Zeitpunkt nur ungefähr angeben, in welchem Ausmaß die KI „immer noch“ kopiert, oder inwieweit sie den menschlichen Quellraum bereits überwunden hat.

Nur der Vollständigkeit halber: Frau Bahr beantwortet auch die übrigen zwei Fragen, die aber in ihrer Brisanz, wenigstens in meinen Augen, gegenüber dem bisher Gesagten verblassen:

  1. Erzeugt ChatGPT Plagiate?

ChatGPT ist kein Täter, sagt Frau Bahr, möglicherweise aber der KI-Nutzer, wenn er das Tool mit einer Täuschungsabsicht einsetzt. …

  1. Kann ChatGPT Mitautor eines Textes sein?

Derzeit nicht, sagt Frau Bahr, aber die Zukunft ist offen! Aktuell ist es ein Tool. Der Prompt des Nutzers erzeugt den KI-Text. Auch an diesem Punkt bleiben (mir) ein paar Zweifel: Ziehen wir die Antwortzeiten der KI zu Rate (so sie nicht durch Traffic oder der Bandbreite eingeschränkt sind), so könnte der Verdacht entstehen, dass die KI ihren Antwortraum „längst” vorformuliert hat. Dem Aspekt unterliegt eine gewisse Süffisanz: in den Antworten auf speziell meine Fragen hat ChatGPT mehrfach Sachverhalte, Personen, Bücher oder Quellen, … schlicht erfunden. Das könnten „Fehler” sein, zumindest, solange sich nicht Jean Baudrillard einmischt, der in den „Fatalen Strategien” (auf Seite 102) davon gesprochen hat, dass

„  » …, auf der Ebene der wissenschaftlichen Beobachtung alle Experimente verfälscht worden sind – nicht versehentlich vom Beobachter verfälscht, sondern durch das Objekt selber, das sich amüsieren und rächen will … «