Systeme mit Künstlicher Intelligenz (KI) sind in der Lage, Menschen zu täuschen – selbst wenn sie darauf trainiert wurden, hilfreich und ehrlich zu sein. Das ist das Ergebnis einer Übersichtsstudie von Forschern am Massachusetts Institute of Technology (MIT) in Cambridge (US-Bundesstaat Massachusetts), die in der Fachzeitschrift «Patterns» veröffentlicht wurde. In dem Beitrag fordern die Wissenschaftler die Politik auf, so schnell wie möglich strenge Vorschriften zu entwickeln, um KI-Systeme in die Schranken zu weisen.
Als auffälligstes Beispiel für eine manipulative Künstliche Intelligenz nennen die Autoren das vom Facebook-Konzern Meta entwickelte KI-System Cicero, das im Brettspiel-Klassiker Diplomacy gegen menschliche Mitspieler antreten kann. Diplomacy simuliert die Machtverhältnisse in Europa vor dem Ersten Weltkrieg. Die MIT-Forscher fanden nun heraus, dass Cicero oft nicht fair gespielt habe, obwohl Meta behaupte, das KI-System darauf trainiert zu haben, «größtenteils ehrlich und hilfsbereit» zu sein.
Auch KI-Systeme von OpenAI und Google seien in der Lage, Menschen zu täuschen. Die MIT-Forscher verweisen dabei auf mehre Studien, wonach große KI-Sprachmodelle (LLMs) wie GPT-4 von OpenAI inzwischen in der Lage sind, sehr überzeugend zu argumentieren und auch auf Täuschungen und Lügen auszuweichen. Die Autoren befürchten auch einen politischen Einfluss durch manipulative KI-Systeme. Sie konnten zum Beispiel vor Wahlen eingesetzt werden. (dpa)