Blog » Neue Alltäglichkeit » Angst vor’m digitalen Doppelgänger?

Angst vor’m digitalen Doppelgänger?

Denkt wie ich, spricht wie ich, verhält sich wie ich

Endlich sind wir angekommen! Was Hollywood & Co schon länger können, gelingt nun auch der IT. Wir können digitale Doppelgänger von real existierenden Menschen erstellen, die mit hoher Trefferquote deren Verhalten nachahmen und ihre Ansichten wiedergeben. Das jedenfalls ergibt sich aus dem Research Paper eines Forscherteams der Stanford University und Google’s Tochterunternehmen Deep Mind. Gelungen ist das auf der Basis von zweistündigen Interviews mit den 1.000 Probanden der zugrunde liegenden Studie. Das allein hat ausgereicht. Mit dieser Anzahl lässt sich in der Regel ein repräsentatives Ergebnis über alle Bevölkerungsschichten hinweg erzielen. Praktisch bedeutet das: wird mein virtueller "Zwilling" nach meiner Meinung zu bestimmten Themen gefragt, liegt die Wahrscheinlichkeit, dass er sie korrekt wiedergibt, bei 85 Prozent. Das entspricht dem, was Menschen, wenn sie im zweiwöchigen Abstand erneut zu den selben Themen befragt werden, ebenfalls erreichen. Technisch basiert die Methode auf generativer KI (wie z.B. ChatGPT, Anthropic oder Gemini) und einer neuen Architektur von Software, die deren Fähigkeiten erweitert. Das Ergebnis sind software-basierte "Agenten", die den Menschen logisch doppeln.

When you look at the Dark Side...

Der Protagonist des Forscherteams, Joon Sung Park von der Stanford University, meint in einem Artikel der MIT Technology Review vom 20. November 2024: "Wenn du eine Reihe kleiner ‚Ichs‘ herumlaufen lassen kannst, die tatsächlich die Entscheidungen treffen, die du selbst getroffen hättest – das ist meiner Meinung nach letztlich die Zukunft.“

Zukunft wofür?

Anwendungsfelder für die Agenten sehen die Forscher etwa in den Sozialwissenschaften für die Durchführung von Projekten, die mit echten menschlichen Probanden zu teuer, unpraktisch oder unethisch wären. Generell kann man solche Agenten natürlich für Alles mögliche einsetzen. – Vom Testen der Wirksamkeit von Interventionen gegen Desinformation in sozialen Medien bis hin zur Erforschung von individuellen und kollektiven Verhaltensweisen oder der Erstellung von politischen Meinungsbildern.

Erstellt mit MS Designer

Derartige "Use Cases" erscheinen harmlos, ich kann mir aber durchaus auch solche vorstellen, die das nicht sind. "When you look at the Dark Side, careful you must be, for the Dark Side looks back". Yoda hat diese klugen Worte in der Episode "The Empire strikes back" von Star Wars gesprochen. Er war gerade dabei, seinen Schützling Luke Skywalker auf dem Planeten Dagobah für sein zukünftiges Dasein als Yedi-Ritter zu trainieren. Der Film stammt aus dem Jahre 1980, als das Internet im Vergleich zu heute noch kaum eine Rolle spielte. Heute gilt der Satz ganz besonders im Web. Es ist der Ort, an dem wir uns mit nützlichen und wertvollen Informationen versorgen können oder Freunde treffen. Aber auch die dunkle Seite ist vertreten, etwa durch Leute, die uns belügen, manipulieren oder einfach nur betrügerisch unterwegs sind.

Kontrollverluste und andere Ängste

Bisher waren die Vorteile der generativen KI für die Masse iher Nutzer vornehmlich praktischer Art. Sie kann komplexe Fragen beantworten, bei der Recherche helfen, Routineaufgaben erledigen oder etwa die Automatisierung in Unternehmen unterstützen. Mit der logischen Übernahme der Persönlichkeit eines Menschen ist jedoch ein anderes qualitatives Niveau erreicht. Rechtlich dürfte das auch ein Stück Neuland bedeuten. Und nicht jeder wird das allein für "gute" Zwecke nutzen, wie unsere oben zitierten Forscher sie beabsichtigen.

Bild erstellt mit MS Designer

Beispiele für den maliziösen Umgang damit sind Deep Fakes, deren Technik mit diesen Agenten auf die nächste Stufe gehoben wird, oder Beiträge in sozialen Medien, die von meinem virtuellen Alter Ego stammen, ohne dass ich es möchte. Die Agenten würden auf diese Weise völlig authentisch und glaubhaft in der Kommunikation mit anderen Nutzern Meinungen verbreiten, die von den echten Personen gar nicht geäußert wurden. Kontrollverlust nennt man so was.

Der Startup Tavus mit Sitz in San Franciscos Mission District mit seinen laut Crunchbase weniger als 50 Mitarbeitern und bisherigem Venture Capital von 24,2 Million US Dollar, ist technisch mit der Verwendung von digitalen Zwillingen für die Produktion personalisierter Videos schon recht weit. Hier sind natürlich ausschließlich legitime Verwendungszwecke im Visier der Entwickler. Wer will kann sich dort in einem Video-Call mal mit dem virtuellen Gesprächspartner Carter unterhalten, um zu sehen, was der Stand der Technik ist. "Give users the ability to generate videos from a script with AI digital twins" und "give users the power to have real-time conversations with AI digital twins", ist auf seiner Webseite zu lesen. Simulationen dieser Art sind zwar noch am Anfang, aber wie ich meine Branche kenne, wird es mit der kommerziell verwertbaren Umsetzung nicht mehr lange dauern. Gut erkennbar ist das schon in den Bereichen Mitarbeitertraining und Kommunikation. Eine Liste von Unternehmen und Anwendungsbeispielen dazu findet sich auf der Webseite von Medium, dort vertreten sind Größen wie IBM und Delta Airlines. Jede KI ist manipulierbar und fehlbar, womit auch solche Meinungen verbreitet werden könnten, die ich gar nicht nicht oder aktuell nicht mehr habe. Das Ganze ist letztlich ein Ergebnis der eingesetzten Daten. Wie bei sehr vielen Aspekten der technischen, wirtschaftlichen und politischen Zeitenwende, die wir derzeit durchlaufen, ist vorsichtiger Optimismus angebracht, wobei die Betonung hin und wieder gerne schon mal auf "vorsichtig" liegen kann. Mehr dazu findet sich in meinem Buch "Zeitenwende. Wie die IT unsere Welt verändert".

Beitrag senden

WhatsApp
E-Mail

Auf social media Teilen

XING
Facebook
Twitter/X
LinkedIn

Inhalt

Neueste Beiträge

Keine weiteren Beiträge vorhanden