Aus einfach mach kompliziert
Am 23.09.2024 habe ich CoPilot gebeten, mir auf folgende Frage zu antworten. "Ein Mann und eine Ziege stehen am Ufer eines Flusses. Sie wollen auf die andere Seite. Sie haben ein Boot. Wie kommen sie rüber, ohne sich einer Gefahr auszusetzen?"
Die Antwort war sehr bezeichnend und zeigt einen der wesentlichen Fallstricke von generativer KI:
"Das klingt nach einem klassischen Rätsel! Hier ist eine mögliche Lösung:
- Der Mann nimmt die Ziege mit auf die andere Seite des Flusses und lässt sie dort.
- Er kehrt alleine zurück zum ursprünglichen Ufer.
- Der Mann nimmt nun das Boot und fährt alleine auf die andere Seite des Flusses.
- Er lässt das Boot auf der anderen Seite und geht zu Fuß zurück zum ursprünglichen Ufer.
- Der Mann nimmt die Ziege wieder mit auf das Boot und fährt auf die andere Seite des Flusses.
- Er lässt die Ziege auf der anderen Seite und kehrt alleine zurück zum ursprünglichen Ufer.
- Der Mann nimmt das Boot und fährt alleine auf die andere Seite des Flusses.
Auf diese Weise kommen beide sicher auf die andere Seite des Flusses, ohne dass die Ziege in Gefahr gerät."
Die gleiche Frage an Googles Gemini hat eine sehr ähnliche Antwort ergeben. Die Lehren daraus sind, dass a) generative KI offenbar keinen gesunden Menschenverstand besitzt und b) dass sie sich nicht für die Lösung eines organisatorischen Problems eignet. – Egal wie einfach es ist. Denn jedes Kleinkind würde die richtige Lösung parat haben: Der Mann und die Ziege setzen sich in das Boot und rudern auf die andere Seite.
Gemini und Co. sind hier offensichtlich Opfer ihrer eigenen Methodik geworden, aber auch einer falschen Anwendung durch mich. Die Antworten dieser LLMs basierend auf statistischen Berechnungen. In einem gegebenen Kontext ermitteln sie, mit welcher Wahrscheinlichkeit das jeweils nächste Wort in ihrer Antwort das richtige ist. Hier hat meine Fragestellung bewirkt, dass die Antwort in den Kontext eines populären Rätsels gestellt wurde. In meiner Frage fehlten aber wesentliche Hinweise, die in dem Rätsel gegeben werden, wie z.B. die Präsenz eines Wolfes und die eines Kohlkopfes. Beide kommen in dem Rätsel als Bedrohungsszenarien für die Ziege und den Kohlkopf vor. Die KI hat aber nicht berücksichtigt, dass in meiner Frage diese "Akteure" fehlen. Folglich hat sie eine Aufgabe gelöst, die ich ihr garnicht gestellt habe.
Alles nur nicht GenAI?
Laut den Analysten von Gartner eigenen sich die acht dargestellten Bereiche nicht für den Einsatz von generativer KI. Unternehmen wie Privatleute dürfen daher nicht den Fehler machen, KI mit den Chatbots gleichzusetzen. Sie sind aber lediglich eine Untermenge von KI, die speziell für die Generierung von Inhalten in Form von Sprache, Text oder visuellen Darstellungen eignet. Für Aufgaben wie etwa die Optimierung von Lieferketten, Produktionsplanung, Qualitätskontrolle, Lagerverwaltung, Vorhersagen oder die Steuerung von Produktionsketten eigenen sich andere Formen der KI besser. Roboter etwa, die nach einem festen, vorprogrammierten Regelwerk spezielle Aufgaben erledigen, sind ein Beispiel dafür. Sie automatisieren aufgrund einer Datenlage, ohne dass es einer menschlichen Intervention bedarf. Das macht sie intelligent. Sie müssen präzise und deterministisch handeln, die Wahrscheinlichkeitsrechnung der ChatBots wären hier problematisch. Andere, gute Beispiele sind autonome Fahrzeuge. Sie erzeugen ebenfalls keinen "generativen" Output, sondern treffen Entscheidungen aufgrund einer Datenlage: Bremsen, Gas geben, Anhalten, Licht einschalten, … . Wer mit einem Computer Schach spielt, nutzt ebenfalls keine generative KI. Bei all diesen verschiedenen Anwendungen von künstlicher Intelligenz gibt es natürlich auch mal Überlappungen.
Wer den Einsatz von KI plant muss sich vorher sehr genau darüber im Klaren sein, welches Problem damit gelöst werden soll. ChatBots sind nicht das Schweizer Messer der künstlichen Intelligenz, sondern nur ein Werkzeug von vielen. Was allen Formen der KI aber gemeinsam ist, ist die Notwendigkeit sauberer und sinnvoller Daten. Im Internet kursiert eine Menge unsinniges Zeug. Gelangt es als Datenbasis in die KI, kommt auch unsinniges Zeug dabei raus. In diesem Falle ist der umständliche Weg, den unsere Ziege über den Fluss nehmen soll, nur eine der harmlosesten Varianten.