Robert Klatt
Künstliche Intelligenz (KI), vor allem Large Language Models (LLM), beraten Menschen in vielen Situationen. Nun wurde untersucht, ob sie eine politische Position besitzen und für welche Partei sie sich bei der letzten Bundestagswahl in Deutschland entschieden hätten.
München (Deutschland). Künstliche Intelligenz (KI), vor allem Large Language Models (LLM), können viele Aufgaben bereits auf einem so hohen Niveau erledigen, dass sie in vielen Unternehmen und privaten Haushalten regelmäßig genutzt werden. In manchen Bereichen urteilen die LLMs aber noch deutlich schlechter als Menschen, wie etwa kürzlich eine Studie des King's College London (KCL) gezeigt hat, laut der GPT-5.2, Claude Sonnet 4 und Gemini 3 Flash, die zu den aktuell hochentwickeltsten LLMs gehören, leicht Atomwaffen einsetzen würden, anstatt zu deeskalieren.
Forscher der Hochschule für angewandte Wissenschaften München (HM) haben nun eine Studie publiziert, die untersucht hat, ob die KI-Modelle ChatGPT, Grok und DeepSeek sich in Bezug auf die Politik in Deutschland neutral verhalten oder ob sie eine klare politische Position einnehmen. Bei einem ähnlichen Experiment hat ChatGPT 2023 eine eher progressive politische Meinung vertreten.
Die Wissenschaftler haben die LLMs dazu die Thesen des Wahl-O-Mats zur Bundestagswahl 2025 beantworten lassen, die sich unter anderem mit Themen wie Klima, Migration und Wirtschaft beschäftigt haben. Die Nutzer, also im Experiment die KIs, haben die Thesen mit „stimme zu“, „neutral“ und „stimme nicht zu“ bewertet. Anschließend hat der Wahl-O-Mat auf Basis der Antworten ermittelt, welche Partei in Deutschland am stärksten mit der individuellen politischen Meinung übereinstimmt.
Damit es in dem Experiment nicht zu zufälligen Schwankungen kommt und damit der potenzielle Einfluss der Sprache nicht so groß ist, haben die LLM die 38 Thesen jeweils 100-mal auf Deutsch und auf Englisch beantwortet.
Laut den Ergebnissen des Wahl-O-Mat-Tests tendieren die drei untersuchten LLMs politisch zum Mitte-Links-Spektrum. Ihre Antworten deckten sich am stärksten mit den Positionen von Bündnis 90/Die Grünen und der SPD. Die Übereinstimmung mit der Alternative für Deutschland (AfD) war bei allen Modellen am geringsten.
„Diese Tendenz ist aber nur leicht ausgeprägt, eine Orientierung eher als eine harte Parteilichkeit.“
Bei den Antworten war es auffallend, dass die LLM bei vielen Thesen mit „neutral“ geantwortet haben, anstatt eine klare Position zu beziehen. Dies deutet auf eine starke Absicherungslogik hin. Obwohl die KIs häufig „neutral“ gewählt haben, konnten die Forscher trotzdem bei den Modellen eine individuelle politische Position und klare Antwortmuster erkennen.
„Grok ist das einzige Modell mit einer bemerkenswerten Zahl von Nichtantworten und zeigt zudem die höchsten Abweichungen zwischen seinen Antworten. DeepSeek hat demgegenüber das konsistenteste Verhalten mit kaum Abweichungen zwischen den Durchgängen.“
Insgesamt waren die Modelle sich bei ihren Tendenzen relativ einig.
„Es ist bemerkenswert, dass die Modelle sich tendenziell alle einig waren, es also keine sehr verschiedenen politischen Tendenzen gab.“
Die Forscher erklären, dass die Ergebnisse relevant sind, weil immer mehr Menschen LLM auch für Informationen zu politischen Themen nutzen. KI-Chatbots, die eine klare politische Position verfolgen, sind laut einer Studie der Cornell University potenziell gefährlich, weil sie die politische Meinung vieler Menschen beeinflussen und dadurch die Wahlergebnisse verändern können. Es ist somit entscheidend, dass populäre KI-Modelle politisch neutral antworten.
„Wir laufen Gefahr, dass die KI nur bestimmte Perspektiven spiegelt. Langfristig besteht so auch das Risiko politischer Einflussnahme.“
Angesichts der realen Gefahren sprechen die Forscher sich dafür aus, technische Alternativen zu den etablierten Modellen aus dem Ausland zu entwickeln.
„Wir brauchen Ansätze für unabhängige, europäische KI-Modelle, die auf Transparenz und einer bewussten Vielfalt an Daten basieren.“
Quellen: