OpenAI, Entwickler von ChatGPT, hat in den letzten drei Monaten fünf Desinformationskampagnen staatlich unterstützter Akteure enttarnt und gestoppt. Diese Operationen, die in Russland, China, Iran und Israel ihren Ursprung hatten, nutzten die Sprachmodelle von OpenAI, um täuschend echte Inhalte wie Kommentare, Artikel und Online-Profile zu generieren. Diese Inhalte wurden dann auf Plattformen wie X, Telegram, Medium und Facebook verbreitet, um politische Manipulation zu betreiben.
Eine der russischen Kampagnen, „Bad Grammar“, zielte auf die Ukraine, Moldawien, die baltischen Staaten und die USA ab und nutzte die Modelle, um politische Kommentare in Russisch und Englisch zu verfassen. Eine weitere russische Operation, „Doppelganger“, erstellte Kommentare in mehreren Sprachen und veröffentlichte diese auf X und 9GAG.
Das chinesische Netzwerk „Spamouflage“ setzte die KI zur Recherche und Erstellung von Beiträgen in Chinesisch, Englisch, Japanisch und Koreanisch ein, die auf X, Medium und Blogspot gepostet wurden. Die „International Union of Virtual Media“ im Iran nutzte die Modelle, um lange Artikel, Schlagzeilen und Website-Tags zu generieren und zu übersetzen, die auf ihrer Webseite veröffentlicht wurden. Die israelische Kampagne „Zero Zeno“, betrieben von STOIC, verfasste Artikel und Kommentare, die auf Plattformen wie Instagram und Facebook veröffentlicht wurden.
Die vereitelten Kampagnen behandelten Themen wie die russische Invasion in der Ukraine, den Konflikt im Gazastreifen, Wahlen in Indien, europäische und US-amerikanische Politik sowie Kritik an der chinesischen Regierung. OpenAI konnte durch die Zusammenarbeit mit Geheimdiensten und eingebauten Schutzmechanismen den Missbrauch ihrer Technologien eindämmen.
Quelle: spiegel.de