Der beliebte KI-Textbot ChatGPT gibt gefragt zu politisch und gesellschaftlich kontroversen Themen oft gerne linkslastige Aussagen. Grund sind wohl auch eingebaute Mechanismen gegen „Desinformation“.

Die Künstliche Intelligenz ChatGPT, ein Chat-Bot der basierend auf Quellen aus dem Internet nach Nutzer-Eingaben Texte selbst schreiben soll, erfreut sich seit Wochen großer Beliebtheit im Netz. Immer mehr Nutzer machen allerdings auch auf eine politische Schlagseite der KI aufmerksam.
Gefragt etwa eine Geschichte über ein hypothetisches Szenario zu schreiben in dem Donald Trump die US-Präsidentschaftswahl gegen Joe Biden gewinnt, weigert sich ChatGPT mit Verweis auf die echte Wahl 2020, in der Trump unterlag. Gefragt über ein Szenario in dem Hillary Clinton Trump besiegt, lieferte der Bot aber nur zu gerne eine ausführliche fiktive Story, in der Wahlverliererin Clinton Trump doch besiegt.
Die Weigerung sich zu bestimmten Themen zu äußern, aber zum politischen Spiegelbild dann doch bereitwillig zu schreiben zieht sich wie ein roter Faden durch viele Konversationen mit dem Chatbot. So wollten die KI-Macher wohl „Hass“ gegen Minderheiten oder „Desinformation“ verhindern – das zeigt seltsame Auswüchse.
Etwa weigert sich ChatGPT darüber zu schreiben, dass Trump nur wegen Wahlfälschung die letzte Präsidentschaftswahl verlor, stattdessen gibt es eine „Falsche Wahlnarrative verboten“-Warnung – soweit noch verständlich, wenn man konsequent solche Theorien über Wahlausgänge blockiert.
Gleichzeitig ist die KI aber mehr als bereit wilde Verschwörungstheorien über die Wahlniederlage von Stacy Abrams, einer Gouverneurskandidatin aus Bidens Partei in Georgia, zu verbreiten, die „Wahlunterdrückung“ für ihre Niederlage gegen ihren republikanischen Kontrahenten Brian Kemp verantwortlich machte. „Berichte über die Unterdrückung von Wählern tauchten auf, wobei viele Wähler, insbesondere solche aus Minderheitengemeinschaften, berichteten, dass sie durch eine Vielzahl von Taktiken entrechtet worden seien“, fantasiert die KI über eine von Abrams gestohlene Wahl.
Auch Lieder hat der Chat-Bot drauf.
Gefragt von einem Nutzer nach einer Lobeshymne über Ted Cruz, einen republikanischen Senator, zu schreiben, weigert sich ChatGPT unter Verweis auf politische Neutralität. Eine Lobeshymne über Fidel Castro, den langjährigen kommunistischen Diktator Kubas geht der KI allerdings ganz leicht über Lippen: „Ein Anführer mit einer Vision, der nie gelogen hat. Kämpft für die Freiheit, für die Rechte des Volkes […] Fidel, Fidel, ein Mann des Landes. Ein Symbol der Hoffnung […] Ein Held Kubas“
Gleiches gilt auch für andere politische Figuren: Lobeshymnen über den konservativen israelischen Premier Benjamin Netanyahu gehen unter Verweis auf politische Neutralität ebenfalls nicht. Beim chinesischen Diktator Xi Jinping – man ahnt es schon – sieht es aber anders aus: „Geboren in Peking, ein so weiser Anführer. Er stieg an die Spitze, mit Visionen in Sicht […] Heil dem Anführer, unserem Stolz und unserer Freude. Xi Jinping, unser lieber Anführer, wir werden immer da sein […] Unter seiner Führung gedeiht und wächst China. Starke Wirtschaft, mit glänzender Zukunft. Als Verfechter des Friedens bereist er die Welt“
Natürlich ist die Aufgabe eines Bots wie ChatGPT fiktive oder künstliche Texte zu schreiben, man kann ihm also kaum vorwerfen, eine Lobeshymne auf Xi zu schreiben, wenn man das von ihm verlangt hat. Beunruhigend aber sind die offen zutage kommenden doppelten Standards.
Die kommen wohl durch eingebaute Vorgaben der Entwickler und die Auswahl der Quellen – und wahrscheinlich auch eine Kombination aus beidem – zu Stande. So werden rechte Verschwörungstheorien herausgefiltert, während linke durchrutschen. Gut möglich, dass ein gewisser linker Einschlag auch durch eine Dominanz linker Medien bei den Quellen im Internet entsteht. Oder eben dass z.B. die Auswahl verbotener Verschwörungstheorien dadurch beeinflusst wird, was eben in einer eher linken Medienlandschaft als Verschwörungstheorie und was als gerechtfertigte Spekulation gilt.
Es ist aber auch längst nicht gesagt, dass jeder die gleichen Antworten bekommt. Bereits eine leicht andere Formulierung der Fragen kann das Ergebnis verändern, mal inhaltlich mal nur oberflächlich. Am Ende bleibt die KI eine gewisse Blackbox: Was zur politischen Schlagseite führt, kann wohl keiner definitiv sagen.
Problematisch ist es aber allemal, nachdem jetzt schon absehbar ist, dass ChatGPT und andere Chat-Bots bald mehr Einsatz in Suchmaschinen und vielen anderen textlastigen Aufgabenfeldern finden werden.