Zeitenwende

Wie die IT unsere Welt verändert

Blog-Kategorien

Blog » Neue Alltäglichkeit » Deep Fake: Roll over Beethoven

Deep Fake: Roll over Beethoven

Technik mit Ambivalenz

Anders als Chuck Berry mit seinem hier zitierten Song, hätte der alte Beethoven sich nicht nur auf der Tanzfläche, sondern auch im Grabe umgedreht. – Wenn er von den Möglichkeiten gewusst hätte, mit denen seine Werke und seine Person heute synthetisch verändert und dargestellt werden können. Ähnlich ginge es sicher auch anderen Komponisten, wie Bach, Chopin oder Mozart, die auf YouTube in den Genuss eines zweiten Lebens gekommen sind. Wer sich mit den Möglichkeiten von Deep Fake Bildern, Videos und Tonaufnahmen beschäftigt, betritt ein faszinierendes und zugleich Besorgnis erregendes Feld von Künstlicher Intelligenz. Das gilt in dreierlei Hinsicht: Die Technik ist fesselnd, die Ergebnisse sind erstaunlich und die Palette der Anwendungsmöglichkeiten reicht von entzückend bis erschreckend. Wer "Fake News" immer noch im Kontext von Textbeiträgen auf Sozialen Medien sieht, braucht dringend ein Update.

Deep Fake hat viele positive Seiten, wie schon das Forbes Magazin im März 2020 betonte. Zu groß war auch da schon die Welle des Negativen, die über die Technologie schwappte und alle positiven Anwendungen unter sich begrub. Ihre negativ konnotierte Bezeichnung als Deep Fake wird der Gattung daher nicht ganz gerecht. Mithilfe von Deep Fake Applikationen lassen sich z.B. alte Filme oder historische Aufnahmen perfekt restaurieren, das Verhalten von Patienten mit bestimmten Krankheiten zu ärztlichen Trainingszwecken simulieren oder das Lernen personalisieren und ansprechender machen. Wir wissen aus dem 2019 erschienenen Film "The Irish Man", dass Robert de Niro dort für bestimmte Rückblicke "KI-verjüngt" wurde. Maskenbildner bekommen starke Konkurrenz… . Die Liste kann beliebig fortgesetzt werden. Gleichzeitig gehören aber Deep Fake Applikationen auch zu den gefährlichsten Möglichkeiten der Manipulation und Lüge. Wer kann schon ohne Training und Expertise echt von unecht unterscheiden, wenn eine entsprechende Kennzeichnung fehlt? Das Jahr 2024 wird global betrachtet ein Super-Wahljahr werden. Es wird u.a. in den USA, in England, Belgien, Südafrika, Indien und zum Europäischen Parlament allgemeine Wahlen geben.  Das stellt eine mächtige Gelegenheit dar. Man kann davon ausgehen, dass die Trolle in St. Petersburg und interessierte Parteien in den genannten Ländern bereits Ideen für falsche Videos haben. Welche Konsequenzen hat ein gut gemachtes Deep Fake Video, das einem bedeutenden Politiker "Unerhörtes" in den Mund legt? Das Dementi der Parteizentrale müsste sehr schnell auf Hochtouren laufen. Wir wissen, dass solche Nachrichten sich viel schneller verbreiten als weniger sensationelle, die Schadenbegrenzung ist also herausfordernd. 

So einfach wie ein Kinderspiel

Deep Fake ist längst im Mainstream angekommen. Das Web bietet für den Hausgebrauch sowohl zahlreiche, einfach bedienbare online Apps sowie solche zum Download an. Wem deren Funktionalität zu simpel ist, der kann z.B. auf DeepFakesWeb.com ausgefeiltere Technik für vier Dollar pro Stunde mit entsprechender Rechenpower nutzen. Das Trainingsvideo wird gleich mitgeliefert. Alle erstellten Werke können gespeichert und somit bei Bedarf erneut bearbeitet werden. Der Anbieter steht erfreulicherweise zu seiner sozialen Verantwortung, indem er die Endresultate mit einem elektronischen Wasserzeichen als synthetisch kennzeichnet und Breadcrumbs in den Videodaten hinterlässt. Deutlich einfacher, in der Wirkung aber durchaus desaströs, kann die App "DeepNudeNow" wirken. Sie wirbt auf Ihrer Webseite mit dem Satz "Undress Anyone Online and Completely for Free!" und einen Tipp gibts auch noch dazu: "Use summer photos: the more skin that is exposed, the better the result."

Die potenziellen Opfer dieser App werden in der mitgelieferten Gebrauchsanweisung gleich dargestellt. Es handelt sich um junge Mädchen im Schulalter. Man kann sich leicht vorstellen, welche Wirkung diese App auf dem Pausenhof, im Schulbus oder auf Facebook und TikTok haben kann. Und wer sich nach ihrer Popularität fragt, erfährt das gleich auf der Webseite.

Von sozialer Verantwortung fehlt hier im Gegensatz zum vorherigen Beispiel jede Spur. Gemäß einem Artikel der MIT Technology Review vom 12. Februar 2021 beinhalten 90 – 95% aller Deep Fake Videos nicht-einvernehmliche Pornographie, wobei zu über 90% minderjährige Frauen betroffen sind. Viele Deep Fake Apps sind leicht zu erlernen, einfach zugänglich und zumindest in der Grundversion kostenlos. – Das übliche Erfolgsrezept für virale Verbreitung im Web.

Selbst IT-Profis fallen rein

Natürlich endet der Missbrauch der Technologie nicht auf dem Schulhof. In einem spektakulären Betrugsfall aus dem Jahre 2022 wurde der brasilianische Finanzdienstleister BlueBenx, der sich als "all in one Blockchain-Bank" positioniert, mittels eines Deep Fake Videos um 32 Million US Dollar erleichtert.

Foto von Roger Brown auf Pixels

Das Unternehmen wollte seine eigene Krypto-Währung „Benx“ an der weltgrößten Kryptobörse, Binance, listen. Um den Vorgang zu beschleunigen, suchte es den direkten Kontakt mit dem Sprecher von Binance. Der wurde im August 2022 durch einen angeblichen Mittelsmann hergestellt und der Binance-Mann erschien in einem Video Call mit den BlueBenx Managern. Er war mit dem Listing einverstanden und forderte die sofortige Überweisung von 200.000 Dollar sowie von 25 Millionen Benx an die Börse. Was dann geschah, löste bei den Brasilianern helles Entsetzen aus. Der vermeintliche Vermittler tauschte nämlich die 25 Millionen sofort auf dem eigenen System von Benx in Dollar um. Alle Kunden von BlueBenx wurden daraufhin vom Unternehmen daran gehindert, ihre Einlagen abzuziehen, da ansonsten Zahlungsunfähigkeit gedroht hätte. Der Sprecher von Binance konnte nach Bekanntwerden der Aktion glaubhaft versichern, dass er an dem Video Call nicht beteiligt gewesen war. Was dort erschienen war, waren Bilder, denen alte Videos von ihm zugrunde lagen. 

Staatliche Regulierung - China als Vorreiter

Staatliche Regulierung gehört nicht zu meinen Präferenzen. Die kurz umrissenen Beispiele machen aber leider deutlich, dass wir im Falle von Deep Fake im Besonderen und KI im Allgemeinen nicht um sie herum kommen werden. Auch hier hilft Technik. Als erstes Land der Welt ist China dem Missbrauch mit einer umfassenden Regulierung entgegengetreten. Im Januar 2023 erließ die Cyber Space Administration of China (CAC), die staatliche Regulierungsbehörde für das Internet, einen umfassenden Katalog von Maßnahmen. Die "Deep Synthesis Provisions" sollen Deep Fake zähmen, deren Inhalte sind auf der kommerziellen Webseite China Laws Portal einsehbar.

Foto von Gerd Altmann auf Pixaby

Dabei geht es um technische und inhaltliche Vorgaben. Deep Fakes müssen explizit gekennzeichnet sein, z.B. durch die schon erwähnten Wasserzeichen oder explizite Hinweise in Form von Pop-ups. Das Verbot bestimmter Inhalte ist recht weit gefasst, es geht wie üblich um die Beeinträchtigung der nationalen Sicherheit, der sozialen Ordnung, des öffentlichen Interesses und der Rechte von Dritten. Ein echter Gummiparagraf, der die Regulierung nicht nur beschleunigt, sondern auch vereinfacht. Wie auch im Entwurf der EU werden in China die großen Plattformen und Sozialen Medien ebenfalls in die Pflicht genommen. Sie müssen ein Deep Fake Erkennungssystem implementieren und Verstöße gegen das Regelwerk melden.

In der EU kursiert seit April 2021 der Entwurf des "Artificial Intelligence Act", der Deep Fakes in einer umfassenden Regulierung von Künstlicher Intelligenz mit berücksichtigt und einen anderen Ansatz verfolgt. Er soll bis 2024 Gesetz werden. Er teilt die Technologie in drei Risikogruppen ein, auf die mit unterschiedlicher "Strenge" reagiert wird: Nicht-akzeptables Risiko, hohes Risiko und begrenztes Risiko. Ziel ist es, die KI sicher, transparent, rückverfolgbar, nicht diskriminierend und umweltfreundlich zu gestalten. KI-Systeme sollen von Menschen, nicht von Maschinen überwacht werden. Ich bin gespannt, wie letzteres in der Unendlichkeit des Webs funktionieren soll und wie viele neue Behörden wir dafür brauchen werden. Bemerkenswert ist der Ansatz, eine "Technologie-neutrale" Definition von KI zugrunde zu legen, damit auch zukünftige Entwicklungen der Technik abgedeckt sind. Das ist der interessante Versuch, neue Technik zu regulieren, bevor sie überhaupt verfügbar ist. Darauf bin ich am meisten gespannt.

Im Mutterland der IT gibt es seit 2019 auf Bundesebene den nicht vollendeten Versuch, mittels des Deep Fakes Accountability Act das Thema zu regulieren. Immerhin haben bisher neun Bundesstaaten es geschafft, spezifische Deep Fake Gesetze zu verabschieden. Nicht überraschend zählt dazu auch Kalifornien. Natürlich darf man nicht vergessen, dass das Fehlen eines einzigen, umfassenden Gesetzes nicht bedeutet, dass es keine anderen Regularien gibt, die subsidiär herangezogen werden können. Und wenn alle Stricke reißen gibt es immer noch die Verfassung.

Alternativloser Pragmatismus

Man sieht, wie schwer sich insbesondere demokratische Staaten mit Gesetzen tun, die einigermaßen zeitnah der Technik folgen. Das hat seinen Grund in den Gesetzgebungsprozessen selbst. In einer Demokratie sollen die Vielfalt von Meinungen und Interessen berücksichtigt werden, und das kostet Zeit. Zudem gibt es ein weiteres Problem. Gesetzgeber können zwar den Rahmen und die allgemeinen Zielsetzungen eines Regelwerkes vorgeben, sie sind aber nicht in der Lage, die technischen Standards auszuarbeiten, nach denen Produkte mit diesen Zielsetzungen konform gehen. Das ist bei Deep Fake im Besonderen genauso wie bei KI im Großen und Ganzen. Daher finden sich schon mal "Best Effort-Formulierungen in den Regularien, die aber nicht genau spezifizieren, wann der geforderte "Effort" erreicht ist. Ein offenkundiges Beispiel dafür wäre, auf welche Weise man bei Deep Fake Applikationen den Datenschutz gewährleisten kann. Schließlich werden die Trainingsdaten dafür zum nicht geringen Teil aus dem Web gefischt. Solche technischen Standards sind weder ex-ante verfügbar noch schnell formuliert und ein Verbot der Nutzung dieser Technik ist keine realistische Alternative. Die Festlegung von Standards ist aus sehr guten Gründen Aufgabe der Standard Committees einer Branche, da der Staat damit völlig überfordert wäre. Dort sitzen die Techniker, die dafür den Sachverstand haben. Bis das dann (hoffentlich) irgendwann passiert ist, dauert ebenfalls. Die pragmatische Lösung ist daher, dass wir für die Technik den gesetzlichen Rahmen vorgeben, sie nutzen und die Geduld aufbringen, bis sie schrittweise reguliert ist.

Dennoch müssen wir nicht befürchten, einer neuen Welle von Deep Fakes und durch sie propagierten Fake News rechtlich hilflos gegenüberzustehen. Ein Grund dafür sind bereits bestehende Gesetze, auch wenn sie nicht themenspezifisch sind für Deep Fakes. Allgemeine Gesetze, vom Persönlichkeitsschutz über die Regulierung Sozialer Medien bis zum Grundgesetz, bieten einen gewissen Zeitpuffer. Dennoch: Das Thema Deep Fake bedarf zweifellos gesetzgeberischer "Fürsorge". Der aktuelle Hype um KI rückt es allerdings sehr stark in den Vordergrund. Dabei sollte nicht vergessen werden, dass wir damit schon recht lange leben. Deep Fakes und deren Möglichkeiten wurden schon 2016 seit dem Release der App Face2Face und in den Folgejahren immer wieder öffentlich diskutiert. 2017 zeigte ein Deep Fake Video Putin auf YouTube, 2018 folgte Obama mit Aussagen, die er nie gemacht hatte. Das Video wurde mit einem kostenlosen Open Source Tool namens FakeApp erstellt. Man kann es heute noch in der Version von 2018 aus dem Web laden. Wir tun also gut daran, uns nicht von dem aktuellen Medienhype davon tragen zu lassen.

Foto von Markus Bieck auf Pixabay

Wir werden lernen, damit umzugehen, so wie wir auch gelernt haben und immer noch lernen, mit den Sozialen Plattformen umzugehen. Die Maus wird ständig schlauer, aber die Katze eben auch. Womit wir es hier zu tun haben, ist ein typisches Erscheinungsbild in der IT. Die Technik zieht voran, der Staat zieht hinterher. Das gilt für Deep Fakes ebenso wie für selbstfahrende Autos oder Krypto-Währungen. Den ersten Bitcoin gab es schon 2009, dennoch ist das Feld noch weitgehend unreguliert und auf Bezug auf staatlich kontrollierte oder gar emittierte "Kryptos" ist man außer in China noch nicht besonders weit. Es ist nicht zu erwarten, dass eines Tages der Gesetzgeber Technik reguliert, bevor diese verfügbar ist. Wichtig ist, dass all die (legitimen) Bedenken uns nicht daran hindern, die positiven Seiten und Möglichkeiten zu sehen und sie zu nutzen. Wer das nicht tut, der verliert im globalen Wettbewerb. Wir sind dabei, den Missbrauch in den Griff zu kriegen, auch wenn es gelegentlich etwas dauert. Und wenn es sein muss, dann bedienen wir uns dazu gerne auch der Künstlichen Intelligenz.

Beitragsbild Fake Beethoven auf Boredpanda

Beitrag senden

WhatsApp
E-Mail

Auf social media Teilen

XING
Facebook
Twitter/X
LinkedIn

Inhalt

Neueste Beiträge

Politik und IT

Chinas KI-Tiger

Künstliche Intelligenz – viel älter als der Hype OpenAI löste mit dem Bot ChatGPT im November 2022 einen bisher nicht gekannten Medienhype und Investment-Boom für Künstliche Intelligenz aus. Derzeit soll

Weiterlesen »
Keine weiteren Beiträge vorhanden