Vorschlag der EU-Kommission für die Regulierung von KI

Die EU-​​Kommission hat am 21. April 2021 einen Geset­zes­ent­wurf für die Regu­lie­rung Künst­li­cher Intel­li­genz (KI) vor­ge­legt. Ziel der geplan­ten Ver­ord­nung ist es, einen recht­li­chen Rah­men für sichere und ver­trau­ens­wür­dige KI zu schaf­fen. KI-​​Systeme, die die Sicher­heit, die Lebens­grund­la­gen und die Rechte der Men­schen bedro­hen und dem­nach ein inak­zep­ta­bles Risiko ber­gen, wer­den ver­bo­ten. Für KI-​​Systeme mit hohem Risiko gel­ten strenge Anfor­de­run­gen.

KI-​​Anwendungen kön­nen Risi­ken im Zusam­men­hang mit Dis­kri­mi­nie­rung ber­gen, wenn sie zur Aus­son­de­rung bestimm­ter Per­so­nen­grup­pen füh­ren, bei­spiels­weise in einem KI-​​basierten Bewer­bungs­ver­fah­ren oder bei einer auto­ma­ti­sier­ten Boni­täts­prü­fung. Das kann ins­be­son­dere dann pas­sie­ren, wenn das KI-​​System nicht hin­rei­chend trai­niert oder die Daten­ba­sis unvoll­stän­dig bzw. qua­li­ta­tiv unzu­rei­chend ist. Die kör­per­li­che Unver­sehrt­heit kann bei KI-​​Anwendungen in Medi­zin, Mobi­li­tät oder Indus­trie in Mit­lei­den­schaft gezo­gen wer­den.

Der Rechts­rah­men, der von der EU-​​Kommission vor­ge­schla­gen wurde, soll gewähr­leis­ten, dass KI-​​Anwendungen sicher und mit dem Wer­te­sys­tem in der EU ver­ein­bar sind und so Ver­trauen schaf­fen. Des­halb soll er für alle Anbie­ter gel­ten, die KI-​​Systeme in der EU in Ver­kehr brin­gen oder in Betrieb neh­men, unab­hän­gig davon, ob diese Anbie­ter in der EU oder in einem Dritt­land ansäs­sig sind. Die Ver­ord­nung folgt einem risi­ko­ba­sier­ten Ansatz und unter­schei­det zwi­schen Anwen­dun­gen von KI, die ein inak­zep­ta­bles Risiko, ein hohes Risiko und ein gerin­ges oder mini­ma­les Risiko dar­stel­len:

Die Kate­go­rie „Anwen­dun­gen mit einem „inak­zep­ta­blen Risiko“ umfasst KI-​​Systeme, die eine klare Bedro­hung für die Sicher­heit, die Lebens­grund­la­gen oder die Rechte der Men­schen dar­stel­len. Diese Anwen­dun­gen sol­len grund­sätz­lich ver­bo­ten wer­den. Dazu gehö­ren Sys­teme, die eine Bewer­tung des sozia­len Ver­hal­tens (Social Sco­ring) von natür­li­chen Per­so­nen für all­ge­meine Zwe­cke durch Behör­den oder in deren Auf­trag durch­füh­ren. Sie kön­nen zu dis­kri­mi­nie­ren­den Ergeb­nis­sen und zum Aus­schluss bestimm­ter Grup­pen füh­ren. Ebenso ver­bo­ten wer­den sol­len Sys­teme, die dazu bestimmt sind, das mensch­li­che Ver­hal­ten zu mani­pu­lie­ren und z.B. zu gefähr­li­chem Ver­hal­ten ermun­tern.

Der Ein­satz von KI-​​Systemen zur bio­me­tri­schen Fer­niden­ti­fi­zie­rung natür­li­cher Per­so­nen in öffent­lich zugäng­li­chen Räu­men in „Echt­zeit“ zum Zweck der Straf­ver­fol­gung wird als beson­ders ein­grei­fend in die Rechte und Frei­hei­ten der betrof­fe­nen Per­so­nen ange­se­hen und soll daher ebenso ver­bo­ten wer­den. Eine Aus­nahme gilt, wenn der Ein­satz erfor­der­lich ist, z.B. bei der Suche nach Opfern bei Straf­ta­ten oder in lebens­be­droh­li­chen Situa­tio­nen. In die­sen Fäl­len gel­ten strenge Regeln zur Auto­ri­sa­tion der Anwen­dung.

Eine zweite Kate­go­rie stel­len KI-​​Anwendungen dar, die ein hohes Risiko für die Gesund­heit, Sicher­heit oder die Grund­rechte natür­li­cher Per­so­nen ber­gen. Annex 3 der Ver­ord­nung ent­hält eine Liste mit Anwen­dun­gen, die als hoch ris­kant ein­ge­stuft wer­den. Dazu zäh­len fol­gende Anwen­dungs­be­rei­che:

  • Sicher­heits­kom­po­nen­ten von Pro­duk­ten wie z.B. Maschi­nen, Spiel­zeuge, Auf­züge
  • kri­ti­sche Infra­struk­tu­ren, z.B. im Ver­kehr
  • wich­tige pri­vate und öffent­li­che Dienst­leis­tun­gen (z.B. Kre­ditsco­ring bei Ban­ken)
  • Asyl– und Migra­ti­ons­ver­fah­ren, Grenz­kon­trol­len
  • Per­so­nal­ma­nage­ment, Beschäf­ti­gung, Bewer­bungs­ver­fah­ren
  • Schul– oder Berufs­aus­bil­dung, wenn der Zugang einer Per­son zur Bil­dung und zum Berufs­le­ben beein­träch­tigt wer­den könnte (z. B. Bewer­tung von Prü­fun­gen)
  • Straf­ver­fol­gung
  • Rechts­pflege und demo­kra­ti­sche Pro­zesse

Die Liste kann durch die Kom­mis­sion erwei­tert wer­den. Die gelis­te­ten KI-​​Systeme mit hohem Risiko sind auf dem euro­päi­schen Markt zuge­las­sen, sofern sie bestimmte Anfor­de­run­gen erfül­len:

  • Hohe Qua­li­tät der Daten­sätze
  • Doku­men­ta­ti­ons­pflich­ten mit allen erfor­der­li­chen Infor­ma­tio­nen über das Sys­tem und sei­nen Zweck
  • Pro­to­kol­lie­rung der Vor­gänge, um die Rück­ver­folg­bar­keit von Ergeb­nis­sen zu ermög­li­chen
  • Trans­pa­renz und Bereit­stel­lung von Infor­ma­tio­nen für Benut­zer
  • mensch­li­che Auf­sicht
  • hohes Maß an Robust­heit, Genau­ig­keit und Sicher­heit
  • ange­mes­sene Risi­ko­be­wer­tungs– und Risi­kom­in­de­rungs­sys­teme

Diese Anfor­de­run­gen wer­den in den Arti­keln 8 bis 15 der Ver­ord­nung sowie im Annex kon­kre­ti­siert. Auch den Anwen­dern und ande­ren Akteu­ren der KI-​​Wertschöpfungskette (z. B. Impor­teu­ren, Händ­lern, Bevoll­mäch­tig­ten) wer­den antei­lige Ver­pflich­tun­gen auf­er­legt.

Für Sys­teme mit gerin­gem Risiko sol­len beson­dere Trans­pa­renz­ver­pflich­tun­gen gel­ten. Ins­be­son­dere soll­ten natür­li­che Per­so­nen dar­über infor­miert wer­den, dass sie mit einem KI-​​System inter­agie­ren, es sei denn, dies ist aus dem Nut­zungs­kon­text ersicht­lich. Dar­über hin­aus soll­ten natür­li­che Per­so­nen benach­rich­tigt wer­den, wenn sie einem Emo­ti­ons­er­ken­nungs­sys­tem oder einem Sys­tem zur bio­me­tri­schen Kate­go­ri­sie­rung aus­ge­setzt sind.

Für Anwen­dun­gen mit mini­ma­lem Risiko, z.B. KI-​​gestützten Video­spie­len oder Spam­fil­ter, gilt die freie Nut­zung.

Die EU-​​Kommission schlägt in ihrem Ent­wurf außer­dem Maß­nah­men vor, um Inno­va­tio­nen zu unter­stüt­zen (Title V). So sol­len die zustän­di­gen natio­na­len Behör­den ermu­tigt wer­den, Real­la­bore („regu­latory sand­bo­xes“) ein­zu­rich­ten. Diese sol­len die Ent­wick­lung und Erpro­bung inno­va­ti­ver KI-​​Technologien unter Auf­sicht erleich­tern. Kleine Anbie­ter und Start-​​ups erhal­ten einen vor­an­gin­gen Zugang zu den Real­la­bo­ren, sofern sie die Vor­aus­set­zun­gen für eine Teil­nahme erfül­len.

Über­ar­bei­tet von Michael Diet­zsch, IHK Kas­sel

Wei­tere Info: https://​ec​.europa​.eu/​g​e​r​m​a​n​y​/​n​e​w​s​/​20210421​-​k​u​e​n​s​t​l​i​c​h​e​-​i​n​t​e​l​l​i​g​e​n​z​-​eu_de