Folgen Sie Subraum Transmissionen auch gerne auf Social Media:
Einleitung und Kontext
Mit der Bundestagswahl 2025 rückt auch die Frage in den Fokus, wie sich Wählerinnen und Wähler bestmöglich informieren können. Neben etablierten Tools wie dem Wahl-O-Mat setzen neue Anwendungen auf Künstliche Intelligenz (KI), um Wählerinnen und Wählern personalisierte Einblicke in die Wahlprogramme zu ermöglichen. Die Chat-Programme wahlweise.info und wahl.chat basieren auf Großen Sprachmodellen (Large Language Models, LLMs) wie ChatGPT oder Llama und erlauben es Nutzenden, frei formulierte Fragen zu stellen.
Doch eine aktuelle Untersuchung des Research Center Trustworthy Data Science and Security (RC-Trust) der TU Dortmund zeigt: Diese KI-gestützten Wahlhilfen können unzuverlässige und teilweise falsche Informationen liefern. Dies wirft ernsthafte Fragen zur Vertrauenswürdigkeit solcher Systeme auf, insbesondere im sensiblen Bereich der politischen Meinungsbildung.
Technische Analyse
Die zugrunde liegende Technologie der KI-Wahlhilfen basiert auf sogenannten Großen Sprachmodellen (LLMs), die mittels maschinellen Lernens trainiert werden. Diese Modelle generieren Antworten nicht auf Basis fest kodierter Fakten, sondern durch Wahrscheinlichkeitsberechnungen auf Grundlage der Eingaben und des Trainingsmaterials.
Ein zentrales Problem ist die Halluzination von Informationen: Sprachmodelle neigen dazu, plausible, aber nicht notwendigerweise korrekte Aussagen zu erzeugen. Bei wahlweise.info und wahl.chat zeigt sich dies deutlich, wenn die KI abweichende oder widersprüchliche Antworten zu identischen Fragen gibt. Besonders problematisch ist, dass diese Systeme nicht direkt auf die von den Parteien verfassten Wahlprogramme zugreifen, sondern die Informationen aus einem breiten, oft unkontrollierten Datenpool beziehen. Dadurch können falsche Interpretationen oder Verzerrungen entstehen.
Ein weiteres technisches Problem liegt in der Anfälligkeit gegenüber Prompt-Injections. Forschende konnten durch gezielt manipulierte Eingaben Filtermechanismen umgehen, sodass die KI falsche oder problematische Aussagen generierte. Diese Sicherheitslücken verdeutlichen, dass es bisher an robusten Mechanismen zur Gewährleistung der Vertrauenswürdigkeit fehlt.
Anwendung und Nutzen
Das Konzept der KI-Wahlhilfen bietet grundsätzlich interessante Möglichkeiten für Bürgerinnen und Bürger. Im Gegensatz zum Wahl-O-Mat, der nur die direkte Bewertung von 38 vorgegebenen Thesen erlaubt, ermöglichen KI-gestützte Tools eine interaktive und kontextbezogene Auseinandersetzung mit politischen Themen. Dies könnte insbesondere für unentschlossene Wählerinnen und Wähler hilfreich sein.
Dennoch birgt die hohe Fehleranfälligkeit erhebliche Risiken. Die Inkonsistenz in den Antworten kann zu einer Verzerrung der politischen Meinungsbildung führen. Insbesondere die hohe Variabilität der Ergebnisse – teilweise innerhalb von wenigen Tagen – zeigt, dass die Systeme keine verlässlichen Informationsquellen darstellen. Für Institutionen wie die Bundeszentrale für politische Bildung stellt sich daher die Frage, ob und wie solche Technologien zukünftig reguliert und zertifiziert werden können.
KI-Kategorien und Einordnung
Die untersuchten Wahlhilfe-Tools basieren auf generativen KI-Modellen, die unter die Kategorie des Natural Language Processing (NLP) fallen. Insbesondere Transformer-Modelle wie GPT-4 oder Llama werden genutzt, um Sprache zu verstehen und zu generieren. Dabei greifen sie auf probabilistische Methoden zur Wortvorhersage zurück, was zu den bereits erwähnten Halluzinationen führt.
Im Gegensatz zu regelbasierten Expertensystemen, die mit festen Regeln arbeiten, sind solche KI-Systeme flexibler, aber auch anfälliger für Fehlinformationen. Ähnliche Probleme wurden bereits in anderen Anwendungen generativer KI beobachtet, etwa bei Chatbots für juristische oder medizinische Beratung. Die Wahlhilfe-Tools zeigen, dass diese Herausforderungen auch in der politischen Informationsvermittlung relevant sind.
Fazit und Ausblick
Die Untersuchung der TU Dortmund unterstreicht, dass KI-Wahlhilfen derzeit noch nicht die erforderliche Zuverlässigkeit bieten, um als primäre Entscheidungshilfe für Wählerinnen und Wähler zu dienen. Während sie neue Möglichkeiten für eine interaktive Informationsvermittlung eröffnen, bleibt das Problem der Fehlinformation ungelöst.
Langfristig könnten regulatorische Maßnahmen, etwa eine Zertifizierung vertrauenswürdiger KI-Systeme, für mehr Transparenz und Sicherheit sorgen. Ebenso sind Fortschritte in der KI-Forschung erforderlich, um Sprachmodelle robuster gegenüber Fehlinformationen und Manipulationen zu machen. Bis dahin sollten Bürgerinnen und Bürger solche Tools kritisch hinterfragen und sich nicht allein auf KI-gestützte Wahlhilfen verlassen.
Einfache Zusammenfassung
KI-gestützte Wahlhilfe-Programme wie wahlweise.info und wahl.chat sollen Wählerinnen und Wählern helfen, sich über Parteien und Wahlprogramme zu informieren. Doch Forschende der TU Dortmund haben herausgefunden, dass diese KI-Programme oft falsche oder widersprüchliche Antworten geben. Das liegt daran, dass sie Antworten auf Wahrscheinlichkeiten statt auf festen Fakten basieren. Außerdem können Menschen die Programme so beeinflussen, dass sie falsche Aussagen machen. Dadurch sind diese Programme aktuell noch nicht zuverlässig genug, um als sichere Wahlhilfe genutzt zu werden. Expertinnen und Experten fordern bessere Sicherheitsmaßnahmen und eine Überprüfung solcher KI-Tools, bevor sie für politische Entscheidungen genutzt werden.
Quellen: