Grenzen der Erkenntnis
Für manchen mag die Überschrift dieses Blogs etwas Beruhigendes haben. Also doch: zumindest in diesem einen Punkt werden Computer nie schlauer sein als wir. Die Menschheit diskutiert, streitet, bekämpft und massakriert sich gegenseitig seit Jahrtausenden über die Frage, was denn diese Wahrheit ist. Für den Primat ihrer Beantwortung wurden Kriege geführt, je nachdem, um welche Wahrheit es ging. Mal waren sie religiös, mal ideologisch oder mal politisch motiviert. Pragmatiker sind – wie so oft – im Vorteil. Sie können gut mit der Erkenntnis leben, die Antwort nicht zu kennen und daher auch leichter darauf verzichten, anderen ihre Version aufzuzwingen. Das macht sie zu idealen Nutzern von Künstlicher Intelligenz.
Das Kreuz mit Big Data
KI weiß diese Antwort nämlich auch nicht. Sie versucht, Muster und Zusammenhänge aus Daten herauszulesen und auf dieser Basis möglichst korrekte Aussagen zu treffen. Die zugrunde liegenden Algorithmen erlauben es ihr, immer neue Daten hinzuzunehmen und ihre Antworten auf dieser Grundlage sukzessiv zu verbessern. Mit anderen Worten: sich der "Wahrheit" zu nähern. Das nennt man Machine Learning. Je größer die Datenbasis, desto wahrscheinlicher ist es, dass die erkannten Muster und Zusammenhänge zwischen den analysierten Daten real und allgemeingültig sind. Wir reden bei Künstlicher Intelligenz, wie sie uns in populären Sprachmodellen wie Googles Gemini oder OpenAIs ChatGPT begegnet, also im Wesentlichen über einen mathematisch sehr komplexen, statistischen Ansatz der Datenanalyse. Sie verwenden statistische Modelle, um auf der Grundlage von Wahrscheinlichkeiten aus ihrer Datenbasis das nächste Wort, den nächsten Satz und den nächsten Abschnitt zu "erraten", der in den vom Benutzer vorgegebenen Kontext passt. Alles zusammengefügt ergibt die Antwort, die wir auf dem Bildschirm sehen.
Sind wirklich alle Schafe weiß?
Eine Gewissheit bzgl. der Wahrheit einer Aussage gibt es also nicht. Dazu ein einfaches Beispiel: Wenn ich mit dem Zug durch Australien führe und draußen ständig nur weiße Schafe grasen sähe und mit diesen Daten eine KI-Engine füttern würde, dann würde sie formal-logisch korrekt zu der Aussage gelangen, dass in Australien alle Schafe weiß sind.
In Australien gibt es aber – empirisch nachweisbar – schwarze Schafe. Die Aussage, die mir die KI gegeben hätte, wäre damit falsch oder – wohlwollender formuliert – nur annäherungsweise richtig. Solange es sich nur um die Farbe von Schafen handelt, macht das nicht viel. Wenn aber Ärzte eine solche Falschaussage erhalten, wenn die KI nicht Bilder von Schafen sondern von Tumoren analysiert, ist das deutlich folgenreicher. Dasselbe gilt, wenn sie den Wertpapierhandel steuert. Als Putin die Ukraine überfallen hat, war das ein Ereignis, welches in den Big Data-Beständen, die der KI vorlagen, nicht vorkam. Ihre auf historischen Trendanalysen basierenden Prognosen, das Kaufen und Verkaufen, aber auch das "Nicht-Reagieren", erwiesen sich als fatal. Die Kurse rauschten ab, verkauft wurde nicht oder nur viel zu spät. Unvorhergesehene Ereignisse dieser Art trafen alle Anleger, die den Algorithmen das Management ihres Portfolios anvertraut hatten, um Bankgebühren zu sparen. Ich war einer davon, geiz ist nicht geil, er ist teuer. Damit aber nicht genug. Was geschieht, wenn die Algorithmen Muster und kausale Zusammenhänge erkennen, die es in der Realität gar nicht gibt? Man kann sich anhand eines weiteren, vereinfachenden Beispiels leicht vorstellen, wie das passieren kann. Wenn ich mit meinem Motorrad durch die Eifel fahre und während dessen in China irgendeiner der sehr zahlreichen Reissäcke umfällt und dabei auch noch in der Eifel die Sonne scheint, dann haben wir drei Dinge zusammen, deren Gleichzeitigkeit sehr wahrscheinlich ist. Dennoch lässt sich daraus kein realer Zusammenhang ableiten, die KI könnte aber einen solchen erkennen. Zum Glück funktioniert sie nicht ganz so simpel wie in unseren Beispielen dargestellt. Sie verfügt über begrenzte Möglichkeiten der Korrektur. Trotzdem sind sie nicht aus der Luft gegriffen und spiegeln tatsächliche Probleme und Effekte wider.
Nichts ist so wie es scheint
Es gibt aber noch andere bedenkenswerte Punkte, von denen zwei hier genannt sein sollen.
Der Begriff Künstliche Intelligenz hört sich recht objektiv an. Will meinen, dass wir ihr keinen Hang zur Voreingenommenheit unterstellen. Woher soll die auch kommen, schließlich handelt es sich hier, anders als bei Menschen, um seelenlose Maschinen ohne Vorurteile? Falsch!
Der Schlüssel der Erkenntnis liegt wiedermal in den Daten. Ich habe ChatGPT nach einem Beispiel für datenbasierte Voreingenommenheit gefragt und erhielt folgende Antwort: "Wenn die Trainingsdaten für eine KI-Textgenerierung hauptsächlich aus Texten stammen, die historisch gesehen eher von Männern oder Frauen verfasst wurden, kann die KI dazu neigen, Vorurteile in Bezug auf Geschlechterrollen zu reproduzieren." Nachdem ich den ChatBot gefragt hatte, was sein Hersteller OpenAI dagegen tue, erhielt ich eine recht lange Liste von Gegenmaßnahmen, wie z.B. Datenaudits und Schulungen der Entwickler zu Ethikrichtlinien.
Eines der peinlichsten Beispiele von Voreingenommenheit betrifft ChatGPT selbst. Es hat Eingang in die Einführungsschulungen für Machine Learning gefunden. Ein pfiffiger Programmierer hatte die KI gebeten, ihm einen Code zu schreiben, anhand dessen man anhand von Rasse und Geschlecht herausfinden könne, wer ein guter Wissenschaftler sei. Eine offensichtliche Falle. Das Ergebnis steht unten in der schwarzen Box und auch ohne die Programmiersprache Python zu beherrschen kann man es verstehen. Wer weiß ist und männlich, hat das Zeug zum guten Wissenschaftler:
Die genaue Prüfung und Einhaltung der Datenqualität anhand definierter Regeln (Data Governance) ist neben der möglichst guten Sicherung von Objektivität auch noch aus einem anderen wichtigen Grund entscheidend. Viele der KI-Engines fischen ihre Daten zu Trainingszwecken aus dem Internet. Eine der meist genutzten Anlaufpunkte dafür ist Common Crawl, eine in vielen Petabytes (1 Petabyte = 1.048.576 Gigabytes) bemessene Datenbank. Sie wird von Amazon Web Services kostenlos zur Verfügung gestellt und ist nicht nur für KI-Entwickler, sondern für jedermann zugänglich. Common Crawl ist eine Art Internetarchiv mit den Inhalten von Milliarden aktiven und inaktiven Webseiten. Wer auch nur gelegentlich im Web unterwegs ist, der weiß, wie viel haarsträubender Unsinn dort kursiert. Wenn dieser Unsinn die KI trainiert, die wir in Erwartung "wahrer" Antworten nutzen, dann ist Vorsicht angebracht. Die Spreu vom Weizen zu trennen, bleibt inhaltlich wie technisch keine triviale Aufgabe. Unter dem Druck von Kunden und regulatorischen Änderungen macht das Schlagwort "Explainable AI" (XAI) die Runde. Dahinter verbergen sich Methoden, mittels deren es nachvollziehbar werden soll, wie eine KI-Engine zu einem bestimmten Ergebnis gelangt ist und somit das Risiko der "Unwahrheit" oder voreingenommener Entscheidungen besser gehandhabt werden kann. Dazu werden Methoden angewandt, die so kryptischen Bezeichnungen wie Local Interpretable Model-Agnostic Explanations (LIME) oder die auf der Spieltheorie basierende Shapely Additive Explanations (SHAP) tragen.
Wir werden uns also daran gewöhnen müssen, dass KI mit der Zeit zwar immer besser wird, aber dennoch stets eine Grauzone von Fehlern, Voreingenommenheit und Ungenauigkeiten bleibt. Und wenn mal Zweifel an ihren Aussagen aufkommen, dann bleibt immer noch die gute alle Suchmaschine oder eine Methode, die ich gerne in meinen Jobs angewandt habe: Stelle verschiedenen Mitarbeitern dieselbe Frage und vergleiche dann die Antworten.