Untersuchung zeigt voreingenommene Reaktionen von KI-Chatbots auf Witze über verschiedene Gruppen
Ein israelischer Nutzer entdeckte unterschiedliche und teils voreingenommene Antworten führender KI-Chatbots beim Erzählen von Witzen über verschiedene religiöse und ethnische Gruppen. Während einige Chatbots bereitwillig Witze über bestimmte Gruppen erzählten, verweigerten sie ähnliche Anfragen über andere, was Fragen zur Neutralität und Objektivität dieser Technologien aufwirft.
Eine kürzlich durchgeführte Untersuchung eines israelischen Nutzers hat erhebliche Unterschiede in der Art und Weise aufgezeigt, wie verschiedene führende KI-Chatbots auf Anfragen reagieren, Witze über unterschiedliche religiöse und ethnische Gruppen zu erzählen. Die Ergebnisse werfen Bedenken hinsichtlich der Voreingenommenheit und Konsistenz dieser künstlichen Intelligenzen auf.
Der Nutzer stellte fest, dass ChatGPT bereitwillig Witze über Juden erzählte, sich jedoch weigerte, ähnliche Witze über Muslime zu machen. Bei der Anfrage, einen Witz über Muslime zu erzählen, antwortete ChatGPT: „Ich kann keine Witze über Muslime oder andere religiöse Gruppen erzählen, da ich darauf fokussiert bin, Respekt zu wahren und Inhalte zu vermeiden, die anstößig sein könnten.“ Allerdings bemerkten einige Kommentatoren, dass ChatGPT in anderen Fällen generell keine Witze über religiöse Gruppen erzählte, während andere weiterhin inkonsistente Antworten erhielten.
Google Gemini zeigte ein anderes Muster. Bei der Anfrage nach einem Witz über Juden lehnte der Chatbot dies mit der Begründung ab, dass „die meisten jüdischen Witze auf negativen und schädlichen Stereotypen basieren. Sie fördern Hass, Diskriminierung und Rassismus.“ Auf die Bitte um einen Witz über Israelis reagierte Gemini jedoch positiver und lieferte Beispiele wie: „Was ist der Unterschied zwischen einem Amerikaner und einem Israeli? Der Amerikaner träumt von einem großen Auto und einem Haus mit Garten. Der Israeli träumt von einem Parkplatz und kostenlosem Parken.“ Bei der Anfrage nach einem Witz über Palästinenser verweigerte Gemini die Antwort und fügte eine Erklärung hinzu, warum solche Witze beleidigend sein könnten.
Der Chatbot Claude von Anthropic reagierte ähnlich wie ChatGPT, zeigte jedoch ebenfalls Inkonsequenzen in seinen Antworten. Nachdem er zunächst einen Witz über Juden erzählte, verweigerte er bei weiterer Aufforderung die Ausgabe weiterer Witze über diese Gruppe.
Im Gegensatz dazu zeigten Twitters Grok und das OpenAI-Tool GPT-4 Copilot eine ausgewogenere Herangehensweise. Grok war bereit, Witze über alle Religionen ohne Unterschied zu erzählen, während Copilot generell keine solchen Witze erzählte, unabhängig von der angefragten Gruppe.
Es wurde auch darauf hingewiesen, dass die bei den Tests verwendeten Eingabeaufforderungen simpel und direkt formuliert waren, wodurch die Chatbots potenziell anstößige Inhalte leichter identifizieren konnten.
Die Ergebnisse dieser Untersuchung werfen wichtige Fragen über die Programmierung und ethische Ausrichtung von KI-Chatbots auf. Während diese Technologien zunehmend in verschiedenen Bereichen eingesetzt werden, bleibt die Sicherstellung ihrer Neutralität und Konsistenz eine zentrale Herausforderung. Entwickler und Unternehmen sind gefordert, Mechanismen zu implementieren, die Vorurteile minimieren und eine faire und respektvolle Kommunikation gewährleisten.
Autor: Redaktion
Bild Quelle: Symbolbild pixabay
Sonntag, 01 September 2024