Mein Kollege GPT

von Björn Lengers und Tina Lorenz

17. März 2021. Im Märchen "Der süße Brei" erzählen die Gebrüder Grimm die Geschichte eines Topfes, der solange Brei kocht, bis man ihn mit einem Zauberwort stoppt. Als es vergessen wird, wird zunächst Küche und Haus, schließlich die Nachbarschaft und am Ende die ganze Stadt unter einer Masse von Brei begraben. "Wer ab da in die Stadt wollte", beschließt das Märchen, "brauchte einen Löffel und musste sich durchfressen."

Gebrauchstexte vom Schreibroboter

Wer einen Text schreibt, denkt man gemeinhin, müsse ein Mensch sein. Er oder sie bringt kostbare Gedanken zu Papier, ist gebunden durch Arbeitszeitgesetze, lässt sich stören von der Hup-Demo vor dem Fenster oder dem Mittagessen. Sitzt mitunter Stunden vor dem weißen Blatt und tut sich schwer, Zeichenangaben einzuhalten oder ein einstündiges Kammerspiel aus einem 2.000-seitigen Roman zu machen. Ein fertiger Text ist also eine knappe Ressource, etwas Handgefertigtes – etwas, das nicht in beliebiger Menge verfügbar ist. Text ist keine maschinelle Massenware.

greek 1 Prometheus unbound 560 Bjoern LengersArtificial Intelligence – Durch Künstliche Intelligenz und Deep Learning können Maschinen immer besser schreiben: Gebrauchstexte, Übersetzungen, aber auch Gedichte © Marcel Karnapke / CyberRäuber, aus: "Prometheus unbound"

Oder doch? Was, wenn schon jetzt Text in gewünschter Qualität und in atemberaubender Quantität maschinell produziert werden könnte – wie der süße Brei aus dem Märchen? Wenn zum Beispiel Dramaturg:innen "Gebrauchstexte" nicht mehr von Hand herstellen, sondern nur noch aus der unendlichen Vielfalt der Angebote diejenigen auswählen müssten, die dann schlussendlich publiziert werden? Wenn Social Media und Webseite, Flyer und Stückfassungen, Programmheft- und Einführungstexte, Theaterkritiken und ja, auch Artikel wie diese hier, aus maschinell produzierten Textbausteinen zusammengesetzt werden könnten, die von menschengemachten Texten nicht mehr zu unterscheiden sind?

Machine made play?

Künstliche Intelligenz macht das alles nicht nur theoretisch denkbar, sondern heute schon möglich. Computerprogramme, die über datengefütterte Algorithmen funktionieren, können Texte verfassen. "GPT" nennt sich eines dieser Textgenerierungssysteme und steht für "Generative Pre-Trained Transformer". Mittlerweile gibt es GPT schon in der dritten Version: GPT-3 – und die Möglichkeiten scheinen riesig.

An diesem Punkt fangen wir an, über Ethik nachzudenken. Denn es ist nur ein Anfang, Textroboter die Arbeit der Dramaturg:innen erleichtern zu lassen und ihnen Hilfsmittel an die Hand zu geben, mit denen sie sich zumindest die öden Textsorten ein bisschen mehr vom Leib halten können. Wenn Maschinen aber solche Texte schreiben können, können sie dann auch Bühnentexte schreiben? Also Texte, die sich zentral mit der menschlichen Existenz befassen, von der eine Maschine nicht wirklich etwas wissen kann? Oder können sie, unter Einbeziehung der Kundendaten à la Netflix, Plots für einen garantierten Kassenschlager eines finanziell angeschlagenen Hauses generieren? Quasi maschinelle Gebrauchsdramatik herstellen, um dem menschengeschriebenen Text noch einmal eine ganz andere Wertigkeit zu verleihen? Was, wenn nur noch das Alte diesen eindeutigen Nimbus des Menschlichen hat, alles Neue aber ungeklärter Provenienz ist?

Übersetzer, Chat-Experte und Shakespeare-Simulator

Bei diesen Fragen merken wir, dass unsere Definition von Autor:innenschaft und unser Textbegriff an sich nicht mehr ausreichen, um auch diese neuen Formen der Textentstehung mit einzuschließen. Bisher galt: Texte sind nicht nur reines Handwerk; sie sind Abbild und Ergebnis unseres Denkprozesses: Ich schreibe, weil ich denke, also bin ich. Und jetzt? Lassen sich maschinengemachte Texte in unseren Kunstbegriff einschließen? Gehen Künstliche Intelligenz und Kreativität zusammen? Und welchen Spaß kann man eigentlich mit Text noch haben, wenn er – wie der süße Brei – im Überfluss vorhanden ist, als Ressource, die unendlich ist?

Tweet GPT 3 Shakespeare Sonett 560 MerzMenschSonett aus der Maschine – die Eingabe-Maske von GPT-3, gefüttert mit der Vorgabe: "here is a poem by Shakespeare:" © Twitter/@MerzmenschSeit ein paar Jahren, also seitdem das Thema Künstliche Intelligenz mehr öffentlichen Debattenraum einnimmt, drängen sich diese Fragen in den Vordergrund. Wir können sie langsam nicht mehr aussitzen. Wir müssen uns im Gegenteil im Detail damit befassen. Weshalb hier ein paar Details kommen:

GPT-3 steht für "Generative Pre-Trained Transformer" der 3. Generation. Von GPT-1 hat die Öffentlichkeit noch gar nichts mitbekommen. Dessen Nachfolger GPT-2 von 2019, den die CyberRäuber im Stück Prometheus unbound als Live-Autoren einsetzen, ist zwar schon beeindruckend, hängt sich aber noch hin und wieder in endlosen Loops von Kauderwelsch-Halbsätzen auf. GPT-3, die neueste Version dieses Sprachmodells (language model), kann Texte übersetzen, erstellen oder weiterschreiben, sachkundig mit Menschen chatten, Sonette im Stile Shakespeares oder funktionierende Computerprogramme schreiben.

Kernkompetenz Kuration

In einem theaterspezifischen Turing-Test haben wir GPT-3 nicht nur eine dramatische Szene von Schiller zusammenfassen und eine Theaterkritik generieren lassen, sondern auch den Programmhefttext einer menschlichen Dramaturgin genommen, und Teile davon GPT-3 zur Vervollständigung überlassen. (Danke an dieser Stelle an Sophie Walz vom Staatstheater Augsburg, die ihren Text zur VR-Hybridoper "Orfeo et Euridice" zur Verfügung gestellt hat!)

Bestenfalls produziert GPT-3 damit Absätze, die sich von Sophies Duktus auf den ersten Blick nicht mehr unterscheiden lassen. Manchmal kommt auch totaler Quark dabei raus. Das Kuratieren also, und das Aussortieren von Schrott, wird absehbar weiterhin Aufgabe sach- und stilkundiger menschlicher Kolleg:innen bleiben, die den Text in eine Struktur bringen und lenken. Denn nicht alles, was erzählt werden kann, muss auch erzählt werden. Hier bildet sich auch der Kern dessen aus, was Autor:innen in Zukunft viel zentraler können müssen: Einordnen, Sortieren, Strukturieren, Auswählen. Kollege GPT kann nur Angebote machen:

Beispiel I - Zusammenfassung einer dramatischen Szene von Schiller

Beispiel II - Fiktive Theaterkritik

Beispiel III - Fortsetzung eines (realen) Programmheft-Textes über Virtual Reality


(Die oben aufgeführten Textbeispiele plus weitere gibt es auch hier in Tabellenform (pdf).)

Wie aber kann es sein, dass bei gleicher Vorgabe so wild unterschiedliche Ansätze generiert werden? Kopiert da ein Programm zufällig Sätze aus dem Internet, wie es bei manchen Maschinenversionen von Sophies Programmhefttext den Anschein hat? Nein.

Machine learning Modelle sind komplexe Gebilde, die die inneren Zusammenhänge der Daten, mit denen sie trainiert werden dazu verwenden, um diese oder ähnliche Zusammenhänge in ihrem Output herzustellen. Dabei treffen sie Entscheidungen oder erstellen Prognosen, für die sie nicht explizit programmiert wurden. Die verschiedenen Arten maschinellen Lernens sind dabei den Prozessen nachgebildet, mit denen auch wir Menschen lernen, und damit auch der Struktur von Gehirnzellen. Deshalb sprechen wir von künstlichen neuronalen Netzen (artificial neural networks), wenn wir Modelle wie GPT-3 beschreiben.

Brain Prometheus unbound 560 Bjoern LengersSprachmodelle wie GPT-3 werden auch als "künstliche neuronale Netze" bezeichnet. Auf der Basis von Trainingsdaten geben sie Prognosen dessen ab, was im vorgegebenen Kontext sinnvoll sein könnte. © Marcel Karnapke / CyberRäuber, aus: "Prometheus unbound"

Die Erkenntnis, wie neuronale Netze arbeiten, ist relevant, wenn man Mystizismus entgegenwirken will. Hier existiert kein Verständnis der Welt vonseiten des Modells. Dieses Modell gibt nur eine sehr, sehr gute, auf Erlerntem basierende Prognose dessen ab, was im vorgegebenen Kontext sinnvoll sein könnte. Es ist also etwas ganz Anderes als automatisiertes Googlen mit Copy & Paste.

45 Terabyte Trainingsdaten

Dass GPT-3 dabei so wortgewaltig ist, liegt unter anderem an der schieren Masse von Trainingsdaten: mit 45 Terabyte Text als Pre-Training-Kanon ist GPT-3 das bisher größte (und teuerste!) language model auf der Welt (Stand 2021, natürlich). Derzeit ist das Modell nicht frei verfügbar, man kann sich aber für einen Zugang zu einer Schnittstelle bewerben. Warum diese künstliche Verknappung? Weil die OpenAI-Foundation, Hersteller dieses neuronalen Netzes, unter anderem Angst hat vor dem Missbrauchspotenzial massenproduzierter Texte, die wie menschengemacht aussehen. Recht hat sie. Man muss keine prognosebegabte Maschine sein um zu wissen, was für eine Umwälzung die Verbreitung von Maschinentexten gesellschaftlich nach sich zieht und wie wir unser Vertrauen in Texte als verschriftliche Gedanken anderer Menschen in Zukunft hinterfragen müssen. Denn die Veränderung, die durch language models auf uns zukommt, ist schon jetzt weitreichend und massiv, denn nicht nur in der Kunst, sondern auch im Servicebereich vieler Branchen ist GPT-3 bereits jetzt Kolleg:in in der Textproduktion.

Wir wissen, dass das Rad der Erfindungen sich immer nur in eine Richtung dreht und der Topf nicht aufhören wird, Brei zu kochen. Wir können nicht aufhalten, was sowieso kommt. Aber wir können den Brei maschineller Texterstellung im Theater und in der Kunst produktiv einsetzen und den Umgang mit den Zauberworten lernen. Was für neue Möglichkeiten auf uns warten und was GPT-3 und seine Geschwister für uns am Theater bedeuten werden, können wir nur erforschen, wenn wir uns dem Thema mit unserer, dem Menschen eigene, Neugierde und Begeisterungsfähigkeit nähern.

Wir jedenfalls haben unsere Löffel schon gezückt. Es geht los.

 

Foto Bjoern Lengers 80Björn Lengers ist gelernter Betriebswirt, Datenanalyst und Entwickler. Gemeinsam mit Marcel Karnapke bildet er seit 2016 das Kollektiv CyberRäuber, das digitale Technologien auf die Bühne bringt und mit VR-Inszenierungen bekannt geworden ist.

tina lorenz 80 jan pieter fuhrTina Lorenz hat 2014 auf nachtkritik.de einen Appell für Livestreaming veröffentlicht. Sie ist Projektleiterin für Digitale Entwicklung am Staatstheater Augsburg und beschäftigt sich dort unter anderem mit den Themenkomplexen Mixed Reality und Mensch-Maschine-Interaktion.

 
Kommentar schreiben