AI-Act - Wechselwirkungen der Digitalgesetzgebung
Mit der zunehmenden Komplexität der Gesetzgebung und den Wechselwirkungen zwischen verschiedenen Regelwerken kommt es häufig zu konkurrierenden Vorschriften. Kein Wunder, dass Fachleute bei neuen Gesetzen oft das Urteil fällen, diese seien handwerklich schlecht umgesetzt.
Regulierung im Spannungsfeld: Analyse von Prof. Philipp Hacker
Prof. Philipp Hacker, Rechtswissenschaftler und Inhaber des Lehrstuhls für Recht und Ethik der digitalen Gesellschaft an der European New School of Digital Studies der Europa-Universität Viadrina, Frankfurt (Oder), hat dazu aktuell im Auftrag der Bertelsmann Stiftung das Spannungsfeld digitaler und sektoraler Regulierung untersucht, in dem sich der AI-Act befindet.
Ein zentrales Problem: Fehlen eines Gesamtbildes
Gesetze werden oft isoliert betrachtet, obwohl sie mit anderen Regelungen zusammenspielen sollten.
- Der AI-Act ist eng mit bestehenden digitalen und sektoralen Regelungen verbunden und verweist auf andere Rechtsakte, deren praktische Umsetzung noch unklar ist.
- Regulatorische Widersprüche können Innovationen bremsen und den Einsatz neuer Technologien erschweren.
Der AI-Act: Ein Meilenstein für die KI-Regulierung
Die EU hat mit der Verordnung zur Künstlichen Intelligenz (AI-Act) ein umfassendes und demokratisch legitimiertes Regelwerk geschaffen, das eine sichere Nutzung von KI im Einklang mit europäischen Werten sicherstellen soll.
- Der AI-Act ist Teil eines größeren Rahmens der EU-Regulierung digitaler Technologien, zu dem auch die Datenschutz-Grundverordnung (DS-GVO) und der Digital Services Act (DSA) gehören.
- Der horizontale, risikobasierte Ansatz kategorisiert KI-Anwendungen nach ihrem Risikopotenzial. Besonders risikoreiche Systeme unterliegen strengen Anforderungen.
- Der AI-Act betrifft nicht nur Unternehmen innerhalb der EU, sondern auch außerhalb ansässige Unternehmen, deren KI-Systeme in der EU angeboten oder deren Output genutzt wird.
Überschneidungen und Spannungsfelder des AI-Act
1. Konflikte zwischen dem AI-Act und anderen Gesetzen
- Digital Services Act (DSA): Anforderungen an Risikoanalysen für große Plattformen und generative KI-Systeme überschneiden sich.
- Datenschutz-Grundverordnung (DS-GVO): Während der Anbieter eines KI-Systems nach dem AI-Act haftet, liegt die Verantwortung für Datenverarbeitung bei der DS-GVO beim Betreiber.
- Ausnahmen für Hochrisiko-Systeme: Der AI-Act erlaubt die Verarbeitung sensibler Daten zur Diskriminierungsvermeidung – ein Bereich, der in der DS-GVO sonst verboten ist.
2. Herausforderungen in einzelnen Sektoren
- Finanzwesen: Kreditbewertungssysteme unterliegen bereits strengen Regulierungen. Der AI-Act bringt zusätzliche Vorgaben, die das Regelungsumfeld weiter verdichten.
- Medizinprodukte: Hochrisiko-KI-Systeme, etwa zur Krebsdiagnose, unterliegen sowohl der Medizinprodukteverordnung (MDR) als auch dem AI-Act. Das führt zu Doppelverpflichtungen und möglichen Kapazitätsproblemen bei Bewertungsstellen.
- Automobilsektor: Die traditionelle Bewertungsmethodik bleibt zentral, aber der AI-Act bringt zusätzliche Anforderungen für nicht-hochriskante Systeme.
Empfehlungen für eine harmonisierte Umsetzung
Um regulatorische Widersprüche zu vermeiden, hat Prof. Philipp Hacker, Experte für Recht und Ethik digitaler Technologien, konkrete Empfehlungen formuliert:
1. Ein „Lead Act“ als zentraler Regulierungsrahmen:
Ein „Lead Act“ könnte als vorrangiges Gesetz dienen, um Konflikte zwischen dem AI-Act und sektorspezifischen Vorschriften zu minimieren. Bestehende sektorspezifische Gesetze sollten besser mit dem AI-Act verknüpft werden, um Doppelregulierungen zu vermeiden. Artikel 17 Absatz 4 des AI-Act ist ein gutes Beispiel für eine gelungene Verzahnung, da er klar regelt, welche Teile des AI-Act durch bestehende Gesetze erfüllt werden.
2. Stärkere Zusammenarbeit der Regulierungsbehörden:
Die Zusammenarbeit zwischen der nationalen KI-Aufsichtsbehörde und sektorspezifischen Regulierungsbehörden sollte verstärkt werden. Fachleute aus sektorspezifischen Behörden könnten helfen, Expertise bereitzustellen und den Austausch mit dem AI-Office zu fördern, um einen dauerhaften AI-Enforcement-Hub zu schaffen.
3. Praxisleitfäden für Unternehmen:
Die Unternehmen sollten Praxisleitfäden (Codes of Practice) gemäß Art. 56 AI Act entwickeln, um die Umsetzung des AI-Act auf branchenspezifischer Ebene zu fördern und die Zusammenarbeit zwischen Unternehmen und Regulierern zu stärken.
Warum die Harmonisierung entscheidend ist
Prof. Hacker hält es für notwendig, dass bestehende Gesetze besser aufeinander abgestimmt werden müssen, um Doppelungen zu vermeiden und die Effizienz zu steigern. Langfristig sind nationale und europäische Ansätze nötig, um die KI-Regulierung mit anderen Gesetzen zu harmonisieren und Widersprüche zu beseitigen. Regelmäßige Überprüfungen der Gesetze sind wichtig, um technologische und gesellschaftliche Entwicklungen zu berücksichtigen.
Fazit: Gemeinsam für eine klare Regulierung
Die erfolgreiche Umsetzung des AI-Act hängt davon ab, dass Gesetzgeber, Unternehmen und die Zivilgesellschaft gemeinsam an einem Strang ziehen. Nur wenn alle Beteiligten ihre Expertise und Perspektiven einbringen, können wir klare und praxisorientierte Regelungen schaffen, die den sicheren und verantwortungsvollen Einsatz von KI in Europa gewährleisten.
Quellen
- Hacker, Philipp (2024); Der AI-Act im Spannungsfeld von digitaler und sektoraler Regulierung, Hrsg. Bertelsmann Stiftung. Gütersloh
- Bildquellen von oben nach unten:
- AdobeStock_1047615152
- AdobeStock_794286615