Politische Verschiebung bei ChatGPT: Rechtsdrall festgestellt

by Richard Parks
0 comments

Veränderungen in den Antworten von KI-Modellen

Eine neue Studie aus China zeigt, dass ChatGPT, der populäre KI-Chatbot von OpenAI, eine zunehmende Neigung nach rechts im politischen Spektrum aufweist. Forscher der Peking-Universität stellten fest, dass die Antworten der ChatGPT-Modelle GPT-3.5 und GPT-4 bei wiederholten Tests über einen längeren Zeitraum deutliche Veränderungen zeigen.

In der Fachzeitschrift Humanities and Social Science Communications veröffentlicht, analysierte die Untersuchung 62 Fragen des Political Compass Tests. Diese wurden mehr als 3.000 Mal pro Modell gestellt, um die Entwicklung der Antworten zu verfolgen. Obwohl ChatGPT weiterhin als “libertär-links” eingestuft wird, verdeutlicht die Studie eine “signifikante Verschiebung nach rechts”. Diese Erkenntnisse sind von Bedeutung, da Sprachmodelle weit verbreitet sind und gesellschaftliche Werte beeinflussen können, so die Autoren.

Gründe und potenzielle Auswirkungen

Die Studie baut auf früheren Untersuchungen des Massachusetts Institute of Technology (MIT) und des britischen Centre for Policy Studies aus dem Jahr 2024 auf. Während diese auf eine Linksneigung der Antworten hinwiesen, untersuchten sie nicht, wie sich Antworten im Laufe der Zeit verändern können.

Die Forscher identifizieren drei Hauptursachen für die Rechtsverschiebung: Änderungen in den Trainingsdaten, zunehmende Nutzerinteraktionen oder Updates der Modelle. Da ChatGPT kontinuierlich aus Nutzerfeedback lernt, könnten diese Verschiebungen auch gesellschaftliche Trends widerspiegeln. Ereignisse wie der Russland-Ukraine-Krieg könnten polarisierende Fragen verstärken, was wiederum die Antworten der Modelle beeinflusst.

Forderung nach Kontrolle und Transparenz

Die Forscher warnen, dass KI-Modelle wie ChatGPT, wenn sie nicht überwacht werden, verzerrte Informationen liefern und zur gesellschaftlichen Polarisierung beitragen könnten. Es besteht die Gefahr, dass “Echokammern” entstehen, in denen bestimmte Überzeugungen ständig verstärkt werden.

Um solche Risiken zu minimieren, empfehlen die Autoren regelmäßige Audits und Transparenzberichte, um die Fairness und Ausgewogenheit der Antworten sicherzustellen.

„Kontinuierliche Überprüfungen und klare Richtlinien sind notwendig, um den verantwortungsvollen Einsatz von KI-Technologien zu gewährleisten”, so die Studie. Nur durch solche Maßnahmen könne verhindert werden, dass KI unbeabsichtigt gesellschaftliche Spaltungen vertieft.

You may also like