Neue Software kann sekundenschnell Texte schreiben, die kaum von denen eines Menschen zu unterscheiden sind – das könnte die Welt verändern, mit gravierenden Folgen für Millionen. „Wenn Sie in Ihrem Job E-Mails schreiben, Dokumente erstellen, Artikel oder Werbetexte verfassen, juristische Papiere austauschen: Sie müssen davon ausgehen, dass dies einen tiefgreifenden Einfluss haben wird. Und nicht unbedingt einen guten“, warnte der Informatiker Sridhar Ramaswamy auf der Innovationskonferenz DLD in München. Und Abba-Musiker Björn Ulvaeus sagte voraus, dass Software bessere Musik als viele heutige Songs schreiben werde.
Prognosen, dass Software mit künstlicher Intelligenz Büroarbeiter ersetzen werde, so wie einst die Automatisierung viele Fabrikjobs wegfallen ließ, gibt es schon lange. Bisher wurde maschinelles Lernen für Hilfsanwendungen eingesetzt und schien noch lange nicht soweit. Dann kam im November die Software ChatGPT heraus und löste einen Hype aus. ChatGPT kann auf Kommando beliebige Texte wie Aufsätze, Geschäftsbriefe, Gedichte, Nachrichtenartikel schreiben – und dabei auf Wunsch auch den Stil bestimmter Autoren imitieren.
Wir geht das? Die Software ist trainiert mit gigantischen Mengen Text und imitiert das ihr Bekannte, indem sie die plausiblen nächsten Worte vorhersagt. Das Ergebnis ist stets grammatikalisch korrekt, solide – und etwas uninspiriert. Aber für Alltagsszenarien wie einen Kündigungsbrief oder eine E-Mail reicht das allemal.
Auch Wissensfragen werden auf Basis der erfassten Informationen in ganzen Sätzen beantwortet. Fragt man ChatGPT etwa, wie alt der Präsident von Australien ist, entgegnet die Software: „Australien hat keinen Präsidenten“. Dann lässt ChatGPT aber auch gleich wissen, dass Premierminister Scott Morrison 54 sei. Nur: Australischer Premier ist seit Mai vergangenen Jahres Anthony Albanese. Die Wissensbasis von ChatGPT wurde aber 2021 erstellt. Mal verweist die Software darauf, mal nicht. Schlimmer noch: Bei einem weiteren Versuch macht ChatGPT Morrison zum Präsidenten.
Nun ist ChatGPT noch ein Versuchsprojekt, das dazulernen kann und wird. Der Fehler zeigt jedoch ein grundlegendes Problem auf: Die Antwort sieht überzeugend aus, ist aber falsch – und der Nutzer hat keinen Anhaltspunkt, um das einschätzen zu können.
Zugleich bekommen auch Verfasser gezielter Falschinformationen ein mächtiges Werkzeug. Die Technologie schaffe „endlose Möglichkeiten, sehr schnell relativ plausible Lügen zu formulieren“, warnte Silicon-Valley-Veteran Phil Libin in München. In diesem Jahr rolle auf uns dadurch „eine Welle von Unsinn zu“. Mit der Zeit werde die künstliche Intelligenz besser in der Realität verankert und werde dann von ihren Fähigkeiten profitieren.
Bis dahin aber müsse man der Versuchung widerstehen, sich die Arbeit mit Programmen wie ChatGPT zu erleichtern und automatisiert Inhalte von schlechter Qualität zu produzieren, betonte Libin. Das werde nur „Mittelmäßigkeit vermehren“, warnte er. Wenn etwas von einer KI geschrieben werden könnte, sollte man es als Mensch so nicht schreiben. „Wir müssen die Messlatte dafür höher setzen, was es heißt, dass etwas von einem Menschen erschaffen wurde – mit einem Niveau von Qualität und Originalität.“
Auch anderswo in der Tech-Branche wird vielerorts an sprachgewandter Software mit künstlicher Intelligenz gearbeitet. Während der ChatGPT-Entwickler OpenAI sein Programm öffentlich verfügbar machte, hält etwa Google sein Sprachprogramm bisher unter Verschluss und nutzt es nur intern. Profitieren von ChatGPT könnte Microsoft. Der Software-Riese investierte 2019 eine Milliarde Dollar in OpenAI. Danach folgten weitere zwei Milliarden, wie unter anderem die „New York Times“ und die Website „The Information“ berichteten. Mit dem Geld habe OpenAI die benötigte Rechenleistung bezahlt. Und jetzt sei eine weitere Investition von zehn Milliarden Dollar im Gespräch. Microsoft könne sich damit ein Drittel von OpenAI sichern – und plane auch, die KI-Technologie in seiner bisher abgeschlagenen Suchmaschine Bing einzusetzen, schrieb „The Information“. (dpa)