Blog » Transformation der Wirtschaft » Wie die Ziege über den Fluss kommt. – Überraschende Antworten der ChatBots.

Wie die Ziege über den Fluss kommt. – Überraschende Antworten der ChatBots.

Aus einfach mach kompliziert

Am 23.09.2024 habe ich CoPilot gebeten, mir auf folgende Frage zu antworten. "Ein Mann und eine Ziege stehen am Ufer eines Flusses. Sie wollen auf die andere Seite. Sie haben ein Boot. Wie kommen sie rüber, ohne sich einer Gefahr auszusetzen?"

Die Antwort war sehr bezeichnend und zeigt einen der wesentlichen Fallstricke von generativer KI:

"Das klingt nach einem klassischen Rätsel! Hier ist eine mögliche Lösung:

  1. Der Mann nimmt die Ziege mit auf die andere Seite des Flusses und lässt sie dort.
  2. Er kehrt alleine zurück zum ursprünglichen Ufer.
  3. Der Mann nimmt nun das Boot und fährt alleine auf die andere Seite des Flusses.
  4. Er lässt das Boot auf der anderen Seite und geht zu Fuß zurück zum ursprünglichen Ufer.
  5. Der Mann nimmt die Ziege wieder mit auf das Boot und fährt auf die andere Seite des Flusses.
  6. Er lässt die Ziege auf der anderen Seite und kehrt alleine zurück zum ursprünglichen Ufer.
  7. Der Mann nimmt das Boot und fährt alleine auf die andere Seite des Flusses.

Auf diese Weise kommen beide sicher auf die andere Seite des Flusses, ohne dass die Ziege in Gefahr gerät."

Die gleiche Frage an Googles Gemini hat eine sehr ähnliche Antwort ergeben. Die Lehren daraus sind, dass a) generative KI offenbar keinen gesunden Menschenverstand besitzt und b) dass sie sich nicht für die Lösung eines organisatorischen Problems eignet. – Egal wie einfach es ist. Denn jedes Kleinkind würde die richtige Lösung parat haben: Der Mann und die Ziege setzen sich in das Boot und rudern auf die andere Seite.

Gemini und Co. sind hier offensichtlich Opfer ihrer eigenen Methodik geworden, aber auch einer falschen Anwendung durch mich. Die Antworten dieser LLMs basierend auf statistischen Berechnungen. In einem gegebenen Kontext ermitteln sie, mit welcher Wahrscheinlichkeit das jeweils nächste Wort in ihrer Antwort das richtige ist. Hier hat meine Fragestellung bewirkt, dass die Antwort in den Kontext eines populären Rätsels gestellt wurde. In meiner Frage fehlten aber wesentliche Hinweise, die in dem Rätsel gegeben werden, wie z.B. die Präsenz eines Wolfes und die eines Kohlkopfes. Beide kommen in dem Rätsel als Bedrohungsszenarien für die Ziege und den Kohlkopf vor. Die KI hat aber nicht berücksichtigt, dass in meiner Frage diese "Akteure" fehlen. Folglich hat sie eine Aufgabe gelöst, die ich ihr garnicht gestellt habe.

Überträgt man diesen Befund in ein Unternehmensszenarium, dann wird es gefährlich. Hier geht es nicht um die Lösung eines Rätsels, sondern um geschäftliche Fragestellungen. Werden darauf falsche Antworten gegeben, kann es teuer oder peinlich oder gar Beides werden. Das Research und Beratungsunternehmen Gartner hat in einem kürzlich stattgefunden
Webinar daher die berechtigte Frage gestellt, wozu generative KI nicht nützlich ist. Dabei kamen eine ganze Reihe von Unternehmensanwendung zum Vorschein, die man mit GenAI besser nicht angeht. 

Alles nur nicht GenAI?

Wozu sich GenAI nicht eignet. Quelle: Gartner

Laut den Analysten von Gartner eigenen sich die acht dargestellten Bereiche nicht für den Einsatz von generativer KI. Unternehmen wie Privatleute dürfen daher nicht den Fehler machen, KI mit den Chatbots gleichzusetzen. Sie sind aber lediglich eine Untermenge von KI, die speziell für die Generierung von Inhalten in Form von Sprache, Text oder visuellen Darstellungen eignet. Für Aufgaben wie etwa die Optimierung von Lieferketten, Produktionsplanung, Qualitätskontrolle, Lagerverwaltung, Vorhersagen oder die Steuerung von Produktionsketten eigenen sich andere Formen der KI besser. Roboter etwa, die nach einem festen, vorprogrammierten Regelwerk spezielle Aufgaben erledigen, sind ein Beispiel dafür. Sie automatisieren aufgrund einer Datenlage, ohne dass es einer menschlichen Intervention bedarf. Das macht sie intelligent. Sie müssen präzise und deterministisch handeln, die Wahrscheinlichkeitsrechnung der ChatBots wären hier problematisch. Andere, gute Beispiele sind autonome Fahrzeuge. Sie erzeugen ebenfalls keinen "generativen" Output, sondern treffen Entscheidungen aufgrund einer Datenlage: Bremsen, Gas geben, Anhalten, Licht einschalten, … . Wer mit einem Computer Schach spielt, nutzt ebenfalls keine generative KI. Bei all diesen verschiedenen Anwendungen von künstlicher Intelligenz gibt es natürlich auch mal Überlappungen.

KI hat viele Ausprägungen

Wer den Einsatz von KI plant muss sich vorher sehr genau darüber im Klaren sein, welches Problem damit gelöst werden soll. ChatBots sind nicht das Schweizer Messer der künstlichen Intelligenz, sondern nur ein Werkzeug von vielen. Was allen Formen der KI aber gemeinsam ist, ist die Notwendigkeit sauberer und sinnvoller Daten. Im Internet kursiert eine Menge unsinniges Zeug. Gelangt es als Datenbasis in die KI, kommt auch unsinniges Zeug dabei raus. In diesem Falle ist der umständliche Weg, den unsere Ziege über den Fluss nehmen soll, nur eine der harmlosesten Varianten.

Beitrag senden

WhatsApp
E-Mail

Auf social media Teilen

XING
Facebook
Twitter/X
LinkedIn

Inhalt

Neueste Beiträge

Politik und IT

WhisperGate. – Wann beginnt ein Krieg?

“Nur” militärische Gewalt war gestern Nach dem Völkerrecht beginnt ein Krieg, wenn ein Staat gegen einen anderen militärische Gewalt einsetzt und dessen Eroberung oder Vernichtung zum Ziel hat. Dieser Denkansatz

Weiterlesen »
Politik und IT

Leben und Sterben in Chinas KI-Markt

Atemberaubendes Wachstum In der ersten Hälfte des Jahres 2024 wurden in China mehr als 237.000 KI-Startups gegründet. Folgt man Qichacha, einer international zugänglichen Auskunftei für chinesische Unternehmen mit Sitz westlich

Weiterlesen »
Keine weiteren Beiträge vorhanden