ChatGPT – Chancen und Risiken

Im letz­ten Jahr haben gene­ra­tive KI-​​Anwendungen – deren bekann­teste wohl ChatGPT ist – einen erheb­li­chen Ent­wick­lungs­sprung hin­ge­legt. ChatGPT (GPT = Gene­ra­tive Pre-​​trained Trans­for­mer) ist eine mit Hilfe von KI text­ge­ne­rie­rende Anwen­dung, die den Anschein erweckt eine mensch­li­che Kom­mu­ni­ka­tion zu füh­ren und dabei auf Fra­gen ant­wor­tet und Pro­bleme löst.

Die Poten­ziale, die sich dar­aus für Unter­neh­men erge­ben, sind viel­fäl­tig: Egal ob im Mar­ke­ting, im Ein­kauf, in der Buch­hal­tung oder in For­schung und Ent­wick­lung – in vie­len Berei­chen las­sen sich durch den Ein­satz von Soft­ware wie ChatGPT Effi­zi­enz­ge­winne erzie­len. ChatGPT kann sekun­den­schnell Texte for­mu­lie­ren, Recher­chen durch­füh­ren, Fra­gen beant­wor­ten und Auf­ga­ben lösen.

Einige Anwen­dungs­be­rei­che:

  • Pla­nung & Orga­ni­sa­tion (z. B. Erstel­len eines Kon­zepts für eine Groß­ver­an­stal­tung, Pla­nung eines Betriebs­aus­flugs)
  • Krea­tiv­leis­tun­gen (z. B. Kre­ie­ren von Logos, Marketing-​​Slogans, Visua­li­sie­rung etc.)
  • Pro­duk­tion von Tex­ten (z. B. Schrei­ben einer Rede oder Brief)
  • Recher­che­tä­tig­kei­ten (z. B. Markt­re­cher­che der 10 größ­ten E-​​Commerce-​​Unternehmen inklu­sive Link, Ver­füg­bar­kei­ten von Hotels mit Preise, Lage und Aus­stat­tung der Zim­mer)
  • Vor­be­rei­tende Tätig­kei­ten (z. B. Erstel­len einer Prä­sen­ta­tion, Auf­set­zen eines Ver­trags, Kün­di­gungs­schrei­ben etc.)
  • Struk­tu­rie­rungs­tä­tig­kei­ten (z. B. Auf­ga­ben im Daten­ma­nage­ment, Extrak­tion von Daten aus Daten­ban­ken, Glie­de­rung von Berich­ten, Erstel­len von Über­schrif­ten)
  • Pro­gram­mie­rung und Coding (z. B. Erstel­len von Coding-​​Bausteinen in ver­schie­de­nen Pro­gram­mier­spra­chen, Über­prü­fen von Codes)

Risi­ken und Her­aus­for­de­run­gen:

  • Daten­schutz­recht­li­che Risi­ken: Bei der Gene­rie­rung von Ant­wor­ten wer­den per­so­nen­be­zo­gene Daten ver­wen­det, für die im Vor­feld keine Ein­wil­li­gung ein­ge­holt wurde, so dass die Daten­ver­ar­bei­tung nicht recht­mä­ßig ist. Eine betrof­fene Per­son kann gleich­zei­tig der­zeit ihre Betrof­fe­nen­rechte nicht gel­tend machen, also z.B. das Recht auf Löschen, das Recht auf Berich­ti­gung oder der Prü­fung, wel­che Daten über­haupt von der betrof­fe­nen Per­son ver­ar­bei­tet wer­den. OpenAI ist ein US-​​amerikanisches Unter­neh­men und hat bis­her kei­nen euro­päi­schen Ver­tre­ter nach Art. 27 DSGVO benannt. Pro­ble­ma­tisch ist zudem der Daten­trans­fer in die USA.
  • Daten­grund­lage: kann mög­li­cher­weise unge­naue, irre­füh­rende oder nicht aktu­elle Aus­sa­gen gene­rie­ren. Zum Bei­spiel kennt ChatGPT nicht immer den aktu­el­len Geset­zes­stand. Das kann zur Folge haben, dass sich ChatGPT beim Auf­set­zen von Ver­trä­gen oder bei Berech­nun­gen auf ver­al­tete Fak­ten stützt (Bei­spiel: Ver­wen­dung von ver­al­te­ten Ver­pfle­gungs­pau­scha­len). Die Zuver­läs­sig­keit des Out­puts ist inso­fern zum aktu­el­len Zeit­punkt zu hin­ter­fra­gen. Es ist nicht trans­pa­rent, wel­che Daten­quel­len für die Daten­bank von ChatGPT, aus der die Ant­wor­ten gene­riert wer­den, genutzt wer­den, und wel­cher Mei­nungs­schwer­punkt dabei reprä­sen­tiert wird.
  • Urhe­ber­rechts­ver­let­zun­gen: ChatGPT kann Texte, Bil­der oder andere Mate­ria­lien gene­rie­ren, die mög­li­cher­weise Urhe­ber­rechts­ver­let­zun­gen dar­stel­len. ChatGPT selbst hat als künst­li­che Intel­li­genz kein Recht auf geis­ti­ges Eigen­tum, da das Urhe­ber­recht eine „per­sön­li­che“ geis­tige Schöp­fung vor­aus­setzt. Dem­nach kön­nen nur natür­li­che Per­so­nen Urhe­ber sein.

Fazit: Es gibt große Poten­tiale für die Wirt­schaft (Effi­zi­enz­ge­winne): Das Tool über­zeugt durch ein­fa­che Anwen­dung und gut struk­tu­rierte Ant­wor­ten. Gleich­zei­tig ist ChatGPT sehr funk­tio­nal, um Auf­ga­ben zu struk­tu­rie­ren, Texte zusam­men­zu­fas­sen und Inspi­ra­tion zu lie­fern. Kann Abläufe im Unter­neh­men erheb­lich ver­ein­fa­chen. Gleich­zei­tig wirft ChatGPT zahl­rei­che Rechts­fra­gen und Her­aus­for­de­run­gen auf. Viele Unter­neh­men sind daher ver­un­si­chert. Diese Unsi­cher­heit führt zu Beden­ken, die die Unter­neh­men davor zurück­schre­cken las­sen, Inves­ti­tio­nen in KI-​​Lösungen zu täti­gen. Das Ver­trau­ens­pro­blem in KI droht sich zu ver­schär­fen.

Was braucht die Wirt­schaft?

  • Es gilt, Rechts­si­cher­heit zu schaf­fen und das Ver­trauen in Tech­no­lo­gien wie ChatGPT im Sinne der Wirt­schaft zu stär­ken. Hier­von wird abhän­gen, wie sich die Nut­zung wei­ter­ent­wi­ckelt und wie hoch die Akzep­tanz und der Erfolg der Tech­no­lo­gie ist. Um das Ver­trauen zu stär­ken, ist es jetzt wich­tig:
  • die Ver­mitt­lung der Grund­la­gen über KI-​​Technologien und über die Funk­ti­ons­weise von gene­ra­ti­ver KI vor­an­zu­trei­ben. Nur wer die Mög­lich­kei­ten und auch die Gren­zen ver­steht, ist in der Lage, sie sinn– und ver­ant­wor­tungs­voll ein­zu­set­zen.
  • einen klar defi­nier­ten Rechts­rah­men zu schaf­fen: Auf EU-​​Ebene wird an einer ent­spre­chen­den Geset­zes­grund­lage bereits gear­bei­tet. Im April 2021 wurde ein Ent­wurf für ein Gesetz über Künst­li­che Intel­li­genz, der sog. AI-​​Act, vor­ge­legt. Die­ser soll hori­zon­tale, risi­ko­ba­sierte Regeln für den Umgang mit KI schaf­fen. In den neus­ten Kom­pro­miss­tex­ten zum AI Act aus dem Euro­päi­schen Par­la­ment sind sogar schon Vor­schrif­ten ent­hal­ten, die KI-​​Anwendungen wie Chat GPT erfas­sen sol­len.
  • Die neus­ten Kom­pro­miss­texte im Euro­päi­schen Par­la­ment sehen vor, dass Sys­teme die „gene­ra­tive AI“ ver­wen­den, in der Kate­go­rie der „Hoch­ri­si­ko­sys­teme“ erfasst wer­den. Als „gene­ra­tive AI“ sol­len alle Sys­teme ver­stan­den wer­den, die auf Grund­lage eines begrenz­ten (gering­fü­gi­gen) mensch­li­chen Inputs, kom­plexe Inhalte gene­rie­ren, die fälsch­li­cher­weise als mensch­lich und authen­tisch erschei­nen. Als Bei­spiele dafür wer­den u.a. Zei­tungs– und Mei­nungs­ar­ti­kel genannt. Für diese Hoch­ri­si­ko­sys­teme gel­ten strenge Anfor­de­run­gen, z. B. bestimmte Anfor­de­run­gen an die Daten­qua­li­tät, die Robust­heit der Daten­sätze und ein Risi­ko­ma­nage­ment­sys­tem. Aus­ge­nom­men von die­sen Regeln sol­len ledig­lich die Fälle sein, in denen natür­li­che oder juris­ti­sche Per­so­nen ver­ant­wort­lich sind bzw. haf­ten.
  • Bewer­tung der neus­ten Kom­pro­miss­vor­schläge: Sehr abs­trakte For­mu­lie­run­gen, die jedoch strenge Vor­ga­ben für den gesam­ten Bereich der gene­ra­tive AI’s brin­gen könn­ten. Hier sollte vor­sich­tig vor­ge­gan­gen wer­den, um risi­ko­arme Anwen­dung von Unter­neh­men pro­fi­tie­ren kön­nen, nicht grund­sätz­lich aus­zu­schlie­ßen. Der Risi­ko­ba­sierte Ansatz sollte auch hier kon­se­quent ange­wen­det wer­den. Unter­neh­men sind hohem Druck aus­ge­setzt, um unter­schied­li­che Trans­for­ma­tio­nen umzu­set­zen und auf unter­stüt­zende Tech­no­lo­gien ange­wie­sen.

Beson­der­heit: Im Bil­dungs­be­reich erge­ben sich Beson­der­hei­ten, weil Text­ar­bei­ten und Rechen­auf­ga­ben, die von dem Pro­gramm durch­ge­führt wer­den, nur schwer von eige­nen Leis­tun­gen zu unter­schei­den sind. Ähn­li­ches gilt für Bewer­bungs­schrei­ben und andere per­sön­li­che Arbei­ten. Hier wer­den Lösun­gen gefun­den wer­den müs­sen, um mit die­ser neuen digi­ta­len Rea­li­tät umzu­ge­hen.

Text­quelle: DIHK