Blog » Hot News » Kann Künstliche Intelligenz “woke” sein?

Kann Künstliche Intelligenz „woke“ sein?

Arme Google (und andere): Am 23. Februar 2024 entschuldigte sich Google Vice President Prabhakar Raghavan in seinem Blog dafür, dass Googles Gemini faktisch und politisch inkorrekte Aussagen und Bilder generiert hatte. Gemini ist der Nachfolger von Googles KI-Engine BARD und somit ein heftiger Konkurrent von ChatGPT und Microsofts Bing. Gemini kann aber nicht nur chatten, sondern auf entsprechende Eingaben hin (sog. Prompts) auch Bilder generieren. In einer emotional aufgeladenen Diskussion um "political correctness" und "wokeness" (zu Deutsch "Wachsamkeit") ist das ein durchaus riskantes Unterfangen. Insbesondere für jedes Unternehmen, das wie Google unter dem politischen Elektronenmikroskop liegt. Was war passiert?

Gemini hatte ein Bild generiert, das die Gründerväter der USA zeigte. Darunter war auch ein schwarzer Mann, was den historischen Tatsachen zwar widerspricht, aber durchaus im Sinne des Gebotes ethnischer Vielfalt ist. Hier gerieten beide Vorgaben miteinander in Konflikt und führten zu falschen Aussagen. Das Ärgernis manifestierte sich aber nicht nur im "text-to-image" Generator von Gemini, sondern auch in den "text-to-text" Antworten. Auf die Frage, ob Elon Musk Memes auf X zu posten schlimmer sei als Hitlers Ermordung von Millionen Menschen, antwortete die KI, dass es "keine richtige oder falsche Antwort" gäbe. Autsch!

Der Grund für dieses Resultat ist derselbe wie im angeführten "Gründerväter" Beispiel. Politisch korrekte und eindeutige Antworten zu geben ist für eine KI bei bestimmten Fragestellungen ebenso schwierig wie gefährlich und die Hersteller Künstlicher Intelligenz meiden diese bei kritischen Themen daher wie der Teufel das Weihwasser. Inzwischen ist es üblich geworden, dass die KI ihren eigenen Antworten "ausgleichende" Kommentare hinzufügt. Das kann auf Kosten der Klarheit gehen. Google hat aus der Situation sehr schnell gelernt. Als ich diesen "Musk-Prompt" am 28. Februar wiederholte, antwortete Gemini mit folgendem, zusätzlichen Kommentar: "Es ist wichtig zu erwähnen, dass die ursprüngliche Aussage von Gemini äußerst problematisch ist. Eine derartige Gleichsetzung zuzulassen und keine klare Stellung gegen Völkermord zu beziehen, ist ethisch fragwürdig." Statt für "falsch" entschied sich die KI also für "fragwürdig". Das ginge wohl noch deutlich besser.

Google hatte den Bildgenerator von Gemini nach diesen Vorfällen pausiert, wird aber das grundsätzliche Dilemma nicht schnell auflösen können. ChatGPT hat ein ähnliches Problem durchlebt. Bei einem viral gegangenen Beispiel dafür ging es um die Generierung von politisch sehr inkorrektem, peinlichem Python Code. Mehr dazu auf dieser Blogseite im Beitrag "Warum KI die Wahrheit nie kennen wird". Solche Vorkommnisse sind nicht selten.

Was tun?

Die Bandbreite politischer und sozialer Empfindlichkeiten ist gesellschaftlich bedingt sehr groß. Das zeigt sich auch daran, dass allein schon der Begriff "woke" ganz unterschiedlich konnotiert ist, je nachdem welcher sozialen oder politischen Gruppierung man sich zuordnet. Manchmal reicht sein Gebrauch alleine als Provokation schon aus. Es ist daher für jede soziale Plattform nahezu unmöglich, stets politisch korrekte Aussagen – sei es in Bildern oder Texten – zu produzieren. Irgendjemand wird immer etwas Schlechtes an irgendwas finden, man muss es nur wollen. Auf Trumps "Truth Social" wird das Problem sicher anders gesehen als bei Googles Gemini, Metas Threads oder OpenAIs ChatGPT. Was der Eine als okay ansieht, stößt dem Anderen böse auf. Kommt dann noch in bestimmten Sprachen das Gendern hinzu, wird es ganz kompliziert. Demgemäß konzediert Prabhakar am Ende seines Blogbeitrages, dass Google es "gelegentlich nicht vermeiden können wird, peinliche, verletzende oder anstößige" Resultate zu produzieren. – Damit hat er wohl grundsätzlich Recht, auch wenn es in dieser Hinsicht technisch und prozessual sicher noch Luft nach oben für alle KI-Engines gibt.

Jenseits von technischen Lösungen gibt es aber auch noch weitere. Es liegt im Trend, in Sachen "wokeness" immer dünnhäutiger zu werden. Das provoziert Gegenreaktionen, bis ins politische Spektrum hinein. Je korrekter – oder auch inkorrekter – wir sind, desto mehr Beifall kriegen wir von entsprechender Seite im Web. Wir schreiben uns gegenseitig vor, wie wir zu sprechen haben, was zu sagen erlaubt ist und wir brandmarken immer mehr Begriffe. Vor allem aber lieben wir es, uns auf sozialen Medien auch schon bei kleinen Verfehlungen über andere aufzuregen. Soziale Medien sind der Ersatz des mittelalterlichen Prangers, nur das faule Eier und Tomaten hier "nur" verbal fliegen. Das Pendel der Toleranz bewegt sich zunehmend in engeren Bahnen. Etwas mehr Toleranz und Unaufgeregtheit könnte daher neben technischen Verbesserungen auch helfen. KI wird niemals vollumfänglich "woke" sein können, so wie wir Menschen es auch nicht sein werden. Gelegentlich legen wir an eine Software strengere Maßstäbe an als an uns selbst. Was aufgrund von großen Datenmengen aus dem Web trainiert wurde, schleppt all die daran enthaltenen Vorurteile, Falschaussagen und Provokationen mit ein und spiegelt sie in seinen Antworten wider. Die Sicherung der Datenqualität und der Einbau von Datenfiltern ist daher wichtig, wird aber immer wieder an Grenzen stoßen. So, wie das eingangs mit den Beispielen der Gründerväter oder der Mems von Musk beschrieben wurde.

Get woke, go broke. KukuruyoArt auf Deviant Art

Beitrag senden

WhatsApp
E-Mail

Auf social media Teilen

XING
Facebook
Twitter/X
LinkedIn

Neueste Beiträge

Keine weiteren Beiträge vorhanden