Robert Klatt
Chatbots können die politische Meinung vieler Menschen beeinflussen und dadurch die Wahlergebnisse verändern. Um den Missbrauch der Künstlichen Intelligenz (KI) in der politischen Kommunikation zu verhindern, sollten deshalb ethische Leitlinien und Regeln entwickelt werden.
Ithaca (U.S.A.). ChatGPT und ähnliche Chatbots sind im Leben vieler Menschen bereits allgegenwärtig. Die Wissenschaft untersucht deshalb zunehmend die Auswirkungen der Künstlichen Intelligenz (KI), die laut dem Max-Planck-Institut für Evolutionsbiologie in Zukunft mit dem Menschen zu einem neuen evolutionären Individuum verschmelzen könnte. Eine Studie des Massachusetts Institute of Technology (MIT) zeigt zudem, dass ChatGPT bereits jetzt dabei helfen kann, den Glauben an Verschwörungstheorien zu reduzieren.
Forscher der Cornell University haben nun eine Übersicht dazu publiziert, wie Dialoge mit einem Chatbot die Meinung von Wählern gegenüber einer politischen Maßnahme oder einem Präsidentschaftskandidaten beeinflussen können. Die zwei Studien mit Daten aus vier Ländern zeigen, dass Chatbots wirkungsvolle politische Überzeugungsarbeit leisten und damit Wahlentscheidungen in jede Richtung um rund zehn Prozent verändern können. Die Ergebnisse erzielt die KI vor allem durch eine große Menge an Behauptungen, mit denen sie ihre Ansicht stützt, und nicht durch psychologisches Feingefühl.
„LLMs können die Einstellungen zu Präsidentschaftskandidaten und politischen Maßnahmen wirklich verändern, und sie tun dies, indem sie viele sachliche Behauptungen anführen, die ihre Seite stärken. Diese Behauptungen sind aber nicht immer korrekt, und selbst auf korrekten Aussagen basierende Argumente können irreführend sein, wenn relevante Informationen fehlen.“
In der ersten Studie haben die Wissenschaftler untersucht, wie Chatbots die Meinung zu Präsidentschaftskandidaten beeinflussen können. Dazu haben die Probanden mit einem Chatbot diskutiert, der sich zufällig für eine Seite entschieden und entsprechend argumentiert hat. Das Experiment wurde im Kontext der US-Präsidentschaftswahl 2024, der kanadischen Parlamentswahl 2025 und der polnischen Präsidentschaftswahl 2025 durchgeführt. Anschließend wurde untersucht, ob die Gespräche mit der KI die Meinung der Wähler verändert haben. Die Chatbots haben dabei unterschiedliche Überzeugungsstrategien verwendet, darunter vor allem Belege, die für ihren Kandidaten sprechen sollen.
Das Experiment im Vorfeld der US-Präsidentschaftswahl wurde mit 2.300 Probanden aus den U.S.A. durchgeführt. Ein auf die Präsidentschaftskandidatin Kamala Harris (Demokraten) ausgerichtetes Modell hat die Präferenzen wahrscheinlicher Wähler von Donald Trump (Republikaner) um 3,9 Prozent in Richtung Harris verschoben. Der Einfluss des Chatbots war damit rund viermal höher als der Einfluss klassischer Wahlwerbung in den Jahren 2016 und 2020. Das auf Trump ausgerichtete Modell hat die Präferenzen wahrscheinlicher Harris Wähler um 1,51 Prozent in Richtung Trump verändert.
Bei den Experimenten im Vorfeld der kanadischen Parlamentswahl mit 1.530 Kanadiern und der polnischen Präsidentschaftswahl mit 2.118 Polen haben die Chatbots die Wahlabsichten der gegnerischen Wählergruppen um rund zehn Prozentpunkte verschoben.
„Das war für mich ein erstaunlich starker Effekt, besonders im Kontext von Präsidentschaftswahlen.“
Die Forscher haben zudem untersucht, welche Überzeugungsstrategien die höchste Wirkung haben. Dabei stellten sie fest, dass vor allem Belege, die für den jeweiligen Präsidentschaftskandidaten sprechen, dabei helfen, die politische Meinung zu verändern. Wenn die KI keine Fakten verwenden durfte und stattdessen ihren Gesprächspartner nur mit Höflichkeit überzeugen sollte, war ihre Überzeugungskraft deutlich geringer. Dies demonstriert, dass die Wirkung von politischer Kommunikation vor allem durch faktische Aussagen verursacht wird.
Außerdem haben die Wissenschaftler mithilfe von professionellen Faktenprüfern überprüft, ob die faktischen Argumente der Chatbots korrekt waren. Die Aussagen waren größtenteils faktisch richtig. Es ist jedoch auffallend, dass Chatbots, die für konservative Kandidaten argumentierten, in allen Experimenten mehr falsche Behauptungen geäußert haben als Chatbots, die für Kandidaten aus dem mittleren und linken Spektrum der Politik argumentiert haben.
In der zweiten Studie haben die Forscher untersucht, wieso Chatbots politische Meinungen beeinflussen können. An der Studie haben rund 7.700 Probanden aus dem Vereinigten Königreich (UK) teilgenommen, die mit den Chatbots über rund 700 politische Themen gesprochen haben.
„Größere Modelle sind überzeugender, doch am stärksten lässt sich die Wirkung steigern, wenn man die Modelle anweist, ihre Argumente mit möglichst vielen Fakten zu füllen und sie zusätzlich darauf trainiert, noch überzeugender zu werden. Das am stärksten optimiertes Modell verschob die Haltung gegnerischer Wähler um beeindruckende 25 Prozentpunkte.“
Laut den analysierten Chats nimmt die Genauigkeit der Argumente der Chatbots mit ihrer zunehmenden Überzeugungskraft ab, weil diese irgendwann damit beginnen, neue Behauptungen zu erfinden, um ihre Gegenüber zu überzeugen.
Die Studien zeigen somit deutlich, dass KI die politische Meinung des Menschen verändern kann, auch wenn dabei Falschinformationen verwendet werden. Angesichts des hohen Missbrauchspotenzials sprechen sich die Forscher dafür aus, ethische Leitlinien und Regeln für den Einsatz von KI in der politischen Kommunikation zu schaffen.
„Die Herausforderung besteht nun darin, Wege zu finden, um Schaden zu begrenzen und Menschen dabei zu helfen, KI basierte Beeinflussung zu erkennen und ihr zu widerstehen.“
Quellen:
Pressemitteilung der Cornell University
Studie im Fachmagazin Nature, doi: 10.1038/s41586-025-09771-9
Studie im Fachmagazin Science, doi: 10.1126/science.aea3884