Nach langen Verhandlungen haben sich das EU Parlament und die Europäische Kommission am 08. Dezember 2023 auf einen Gesetzesentwurf zur Regelung von Künstlicher Intelligenz (Artificial Intelligence Act) geeinigt. Erklärtes Ziel beider Seiten ist es, die Entwicklung und Nutzung von KI durch die Wirtschaft nicht zu behindern und gleichzeitig sicherzustellen, dass Grundrechte, Demokratie, die Einhaltung von Gesetzen und der Umweltschutz dadurch nicht beeinträchtigt werden.
Grundmodelle, sog. General Purpose AI (GPAI), auf denen z.B. Bard, Claude oder ChatGPT basieren und die für horizontale Anwendungen mit riesigen Datenmengen trainiert wurden, müssen bestimmten Transparenzanforderungen genügen. Dazu gehören die Erstellung technischer Dokumentationen, die Einhaltung des EU-Urheberrechts und die Publikation detaillierter Zusammenfassungen über die für das Training verwendeten Inhalte und Daten.
Für sog. hochwirksame GPAI-Modelle (High Impact Models) mit "systemischen" Risiken gelten nochmal besondere Vorschriften.
Darunter fällt etwa die Möglichkeit, mit KI Applikationen den Ausgang von Wahlen über soziale Netze zu beeinflussen. Anwendungen mit hohem Risikopotenzial, wie z.B. Gesichtserkennung, sind nur in eng definierten Grenzen nutzbar.
Durch regulatorische "Sandboxes" soll es Unternehmen ermöglicht werden, neue und innovative Produkte, Dienstleistungen oder Geschäftsmodelle unter den Augen einer Aufsichtsbehörde zu erforschen und damit zu experimentieren. Man darf gespannt darauf sein, wie dies in der Praxis funktionieren wird.
Laut EU Parlament ist der Gesetzentwurf der erste weltweit, der Künstliche Intelligenz regelt. Da sich alle Beteiligten einig sind, dürfte die Zustimmung dazu Formsache sein. Es ist zu hoffen, dass der AI Act die Bürokratie in Europa nur in vertretbarem Maße weiter vorantreibt und unser Kontinent als Standort attraktiv bleibt.