| Digitalisierung

Politische Einigung zum europäischen KI-Gesetz

Nach intensiven Verhandlungen haben sich das Europäische Parlament (EP) und der Rat der EU am 8. Dezember 2023 auf einen gemeinsamen Ansatz zum EU-Gesetz für Künstliche Intelligenz (KI-VO) verständigt. Damit könnte ein weltweiter Maßstab für die Regulierung der künstlichen Intelligenz gesetzt worden sein.

Demnach werden KI-Anwendungen in verschiedene Risikogruppen eingeteilt. Einige besonders problematische Anwendungen werden direkt verboten. Dazu gehören KI-Anwendungen, die das menschliche Verhalten manipulieren, um den freien Willen der Nutzerinnen und Nutzer zu umgehen, wie z. B. Spielzeug mit Sprachassistenz oder Systeme, die ein „Social Scoring“ durch Regierungen oder Unternehmen ermöglichen, sowie bestimmte Anwendungen der vorausschauenden Polizeiarbeit. Darüber hinaus werden einige Anwendungen biometrischer Systeme verboten, z. B. Systeme zur Erkennung von Emotionen am Arbeitsplatz sowie einige Systeme zur Kategorisierung von Personen oder zur biometrischen Fernidentifizierung in Echtzeit zu Strafverfolgungszwecken in öffentlich zugänglichen Räumen.

Andere hochriskante Anwendungen, die einen unbestreitbaren Nutzen haben, zugleich aber irreparablen Schaden anrichten können, müssen Mindeststandards erfüllen, um im Binnenmarkt erlaubt zu sein. Zu den Anforderungen gehören Systeme zur Risikominderung, eine hohe Qualität der Datensätze, die Protokollierung von Aktivitäten, eine ausführliche Dokumentation, klare Benutzerinformationen und menschliche Aufsicht. Beispiele für risikoreiche KI-Systeme sind Anwendungen in kritischen Infrastrukturen, etwa in den Bereichen Wasser, Gas und Strom, oder zur Rekrutierung von Personen.

Anwendungen mit minimalem Risiko, wie KI-gestützte Empfehlungssysteme oder Spam-Filter, unterliegen keinen besonderen Sicherheitsverpflichtungen. Auf freiwilliger Basis können sich die Unternehmen jedoch zu zusätzlichen Verhaltenskodizes für diese KI-Systeme verpflichten.

Ferner müssen künftig beim Einsatz von KI-Systemen spezifische Transparenzvorgaben erfüllt werden. Beim Einsatz von Chatbots und anderen KI-Systemen müssen die Nutzerinnen und Nutzer etwa darauf hingewiesen werden, dass sie mit einer Maschine interagieren. Deep Fakes und andere KI-generierte Inhalte müssen als solche gekennzeichnet werden. Außerdem müssen Nutzerinnen und Nutzer informiert werden, wenn biometrische Kategorisierungs- oder Emotionserkennungssysteme verwendet werden. Darüber hinaus müssen die Anbieter ihre Systeme so gestalten, dass synthetische Audio-, Video-, Text- und Bildinhalte in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkannt werden können.

Unternehmen, die sich nicht an die Vorschriften halten, müssen mit Geldstrafen von bis zu 40 Mio. Euro oder bis zu sieben Prozent des gesamten weltweiten Umsatzes des vorangegangenen Geschäftsjahres rechnen.

Die zuständigen nationalen Marktaufsichtsbehörden sind für die Überwachung der neuen Vorschriften auf nationaler Ebene verantwortlich. Auf europäischer Ebene wird ein neues europäisches KI-Büro innerhalb der Europäischen Kommission (KOM) die Koordinierung auf europäischer Ebene sicherstellen. Das neue Büro für Künstliche Intelligenz wird auch die Umsetzung und Durchsetzung der neuen Vorschriften für allgemeine KI-Modelle überwachen.

Der Gesamttext soll unter belgischer EU-Ratspräsidentschaft in einem politischen Trilog in der ersten Februarhälfte 2024 gebilligt werden. Zwei Jahre nach seinem Inkrafttreten greifen die Regeln des AI Acts. Kürzere Übergangsfristen gibt es für verbotene Praktiken (sechs Monate) sowie für die Anforderungen an KI-Systeme mit hohem Risiko und besonders leistungsstarke KI-Modelle (ein Jahr).

Weiterführende Informationen sind den Pressemeldungen von Rat, EP und KOM zu entnehmen. (UV/VS)

Teilen

Zurück