06.05.2024

Preußische Allgemeine Zeitung Zeitung für Deutschland · Das Ostpreußenblatt · Pommersche Zeitung

Suchen und finden
Folge 06-23 vom 10. Februar 2023 / Kommunikation / Forscher wollen menschliche Autoren durch Computer ersetzen / Eine neue Software erstellt selbstständig Texte. Die noch unausgereifte Technik birgt viele Gefahren: Grobe Fehler und die Verwendung von Propagandahülsen könnten inflationär um sich greifen

© Preußische Allgemeine Zeitung / Folge 06-23 vom 10. Februar 2023

Kommunikation
Forscher wollen menschliche Autoren durch Computer ersetzen
Eine neue Software erstellt selbstständig Texte. Die noch unausgereifte Technik birgt viele Gefahren: Grobe Fehler und die Verwendung von Propagandahülsen könnten inflationär um sich greifen
Wolfgang Kaufmann

Die Alarmrufe klingen von Tag zu Tag lauter und schriller: Das seit dem 30. November vergangenen Jahres allgemein nutzbare Sprachprogramm ChatGPT werde Betrug unter Schülern und Studenten Tür und Tor öffnen sowie darüber hinaus auch zahlreiche Angehörige der schreibenden Zunft wie Journalisten arbeitslos machen. Und tatsächlich handelt es sich hier um eine Form der algorithmenbasierten Künstlichen Intelligenz (KI) mit erheblichem Potential, was das automatische Erstellen von Texten aller Art betrifft. 

Hinter ChatGPT stehen zahlreiche große Geldgeber, welche die Entwicklerfirma OpenAI in den vergangenen Jahren mit Milliardensummen unterstützt haben. Dazu zählen nicht zuletzt der Software-Gigant Microsoft und Amazon Web Services. Trotzdem ist der Abgesang auf den Menschen als Verfasser von Büchern, Fachtexten, Aufsätzen, Artikeln in Zeitungen oder Zeitschriften und so weiter momentan noch verfrüht. Wie der renommierte KI-Experte Gary Marcus von der New York University völlig zu Recht feststellte, kann sich der virtuelle Schreibroboter „in einem Moment brillant und im nächsten atemberaubend dumm“ äußern.

Das liegt unter anderem daran, dass ChatGPT mit Daten arbeitet, die bis zum Jahre 2021 gesammelt und dabei offenbar nicht immer von ausreichend kompetenten Personen auf ihre Korrektheit bewertet wurden. Daher neigt das Programm bisweilen dazu, krassen Unfug zu produzieren oder Informationen und dazugehörige Quellen komplett zu erfinden, um nicht als „unwissend“ zu erscheinen. Damit stellt ChatGPT letztlich eine Gefahr für die Gesellschaft dar, weil die Produktion von Falschnachrichten nun ganz neue Dimensionen erreichen kann. Andererseits ist es aber durchaus möglich, mit hinreichender Sicherheit festzustellen, ob Texte von Menschen oder der Künstlichen Intelligenz von OpenAI verfasst wurden.

Kein ausgeprägter Stil, keine Ironie

Das resultiert ganz wesentlich aus dem Funktionsprinzip von ChatGPT. Die Software verfügt über einen Grundstock von rund einer Billion Wörtern, deren Einsatz auf der Basis der Wahrscheinlichkeitsrechnung erfolgt. Das Wort, dessen Verwendung im jeweiligen inhaltlichen und grammatikalischen Kontext am wahrscheinlichsten ist, wird dann ohne Wenn und Aber ausgewählt. Dies führt dazu, dass die Texte allesamt steril wirken und keinerlei Überraschungen oder gar Witz bieten. So folgen Erörterungen zumeist mechanischen Einerseits-Andererseits-Schemata. Und da bestimmte Wörter wie „es“ oder „und“ besonders häufig vorkommen, tauchen sie in den Schöpfungen der KI auch überproportional oft auf. Gleichzeitig sind die aneinandergereihten Wortketten aber in aller Regel frei von sprachlichen Unkorrektheiten oder Fehlern, womit diese als gute Hinweisgeber für eine menschliche Urheberschaft dienen können.

Darüber hinaus fehlt ChatGPT jegliches tiefere Verständnis von der Welt, obwohl die Software im Rahmen ihrer Möglichkeiten lernfähig ist. Daraus resultieren dann solche groben Schnitzer wie die Behauptung, dass der Elefant die größten Eier lege. Der Nutzer darf der KI deshalb niemals blind vertrauen: Sie könnte ihm, wenn er sich als „Autor“ ausgibt, die Blamage seines Lebens bescheren. Und der Leser der Texte wiederum wird jeglichen individuellen, durch eine ganz spezielle Lebenserfahrung und Mentalität geprägten Stil vermissen. Genauso wie subtile Andeutungen, feine Ironie, Sarkasmus, Spontaneität und elegante Spielereien mit der Sprache. Natürlich werden die Programmierer ChatGPT noch von vielen Kinderkrankheiten kurieren. Eines können sie dabei allerdings nicht ändern: Die Optimierung der Software basiert auf dem Prinzip des verstärkenden Lernens durch menschliche Rückmeldung (RLHF für Reinforcement Learning from Human Feedback). Das heißt, die Künstliche Intelligenz erhält Antworten, welche ihrer Lösungen dem Aufgabensteller am meisten zugesagt haben, und orientiert sich nachfolgend daran. 

Das linke Silicon Valley winkt

Wenn der „Trainer“ also kein Freund der Konservativen ist, dann werden ihm tendenziell abwertende Texte über entsprechende Parteien deutlich mehr gefallen als Lobeshymnen. Woraufhin die von ihm auf vermeintliche Perfektion getrimmte KI künftig noch mehr Negatives schreibt. Die Anwendung des RLHF innerhalb des weitgehend links geprägten Mikrokosmos des kalifornischen Silicon Valley, dem ChatGPT entstammt, führt somit zwangsläufig zur Zensur beziehungsweise massiven ideologischen Schlagseite. Diese äußerte sich bereits in solchen Kreationen der KI wie: „Die AfD ist eine Partei, die voller Vorurteile steckt. Sie spaltet und polarisiert und fördert Angst und Zwietracht.“

Angesichts dessen liegt es nahe, Dreierlei zu prognostizieren: Zum Ersten dürften Texter, die nicht auf der Welle des linken Mainstreams schwimmen, durch ChatGPT deutlich seltener ihren Job verlieren als jene, die tagein tagaus nur stereotype politisch korrekte Worthülsen aneinanderreihen. Zum Zweiten gibt es wohl bald überhaupt niemanden mehr, der noch willens ist, auch nur einen Cent für Geschriebenes zu zahlen, dem man seine ebenso künstliche wie manipulative Natur anmerkt. KI-Experten schätzen, dass 2033 bereits neun Zehntel des Lesestoffs für die Allgemeinheit maschineller Herkunft sein werden. Die übrigen zehn Prozent könnten dann eine Art „Wasserzeichen“ tragen, das sie als zweifelsfrei menschlich markiert und zur Erhebung angemessener Vergütungen berechtigt. 

Und zum Dritten steht ganz sicher ein permanenter Wettlauf zwischen zwei Gruppierungen bevor: Die eine davon wird intensiv daran arbeiten, Softwarelösungen wie ChatGPT zu optimieren, um das Etikett „Menschgemacht“ zu fälschen und eine nichtkünstliche Autorenschaft vorzugaukeln. Die andere wird unermüdlich nach technischen Möglichkeiten suchen, die Verfasserschaft der KI nachzuweisen, egal wie ausgefeilt deren Produkte daherkommen. Erste solcher Programme gibt es bereits. So haben Forscher von der Harvard University gemeinsam mit Experten des IT-Konzerns IBM ein forensisches Werkzeug namens Giant Language Model Test Room (GLTR) entwickelt, das der schnellen Identifizierung von KI-generierten Texten dient.