Das Märchen von der künstlichen Intelligenz

Eine McK­in­sey Stu­die kam in die­sem Jahr zu dem Ergeb­nis, wonach Anwen­dun­gen mit künst­li­cher Intel­li­genz (KI) einen höhe­ren Wert­bei­trag für das glo­bale Brut­to­in­lands­pro­dukt erbrin­gen wer­den, als die Dampf­ma­schine, Indus­trie­ro­bo­ter oder die Infor­ma­ti­ons– und Tele­kom­mu­ni­ka­ti­ons­tech­no­lo­gie.

Schaut man sich an, wo KI Stand heute vor allem zum Ein­satz kommt, dann sind die Ein­satz­be­rei­che noch sehr über­schau­bar: Sprach­er­ken­nung, Über­set­zun­gen, Tex­ter­stel­lung. Und wir alle wis­sen aus Anwen­der­sicht, dass Über­set­zungs­werk­zeuge erst seit kur­zem rich­tig gut auch in punkto Gram­ma­tik sind. In Bezug auf Tex­ter­stel­lung sind es vor allem stan­dar­di­sierte Texte, die gut von einer KI erstellt wer­den kön­nen: Wet­ter– und Sport­be­richte oder auch Pro­dukt­texte in Online-​​Shops. Sowohl die Ale­xas die­ser Welt als auch unsere sprach­ge­steu­er­ten Navi­ga­ti­ons­sys­teme schi­cken uns immer noch ab und an in die Irre.

Wer mit Exper­ten für KI spricht, erfährt sehr schnell, woran das lie­gen könnte: Maschi­nen für künst­li­che Intel­li­genz ent­fal­ten ihre ganze Kraft erst dann, wenn sie mit min­des­tens 200, 250 Mil­lio­nen Daten­sät­zen arbei­ten kön­nen. Und wer hat die schon?

Die Orga­ni­sa­tio­nen und Kon­zerne, die einen sol­chen Daten­reich­tum ihr Eigen nen­nen, kann man recht schnell auf­zäh­len. Wie las­sen sich die Daten­schätze unter­halb die­ser Schwelle heben? Schauen wir auf das, wofür sich der Daten­bank­ex­perte für poli­ti­sche Texte –  PANA­LIS Solu­ti­ons – ent­schie­den hat. Für viele Phä­no­mene gibt es wis­sen­schaft­li­che Modelle aus der Poli­tik, Kom­mu­ni­ka­tion oder Sozio­lo­gie. Sie sol­len die gegen­wär­tige Wirk­lich­keit mög­lichst gut beschrei­ben und vor allem die Zukunft vor­her­sa­gen.

Spe­zi­ell Modelle aus den Geis­tes­wis­sen­schaf­ten kön­nen häu­fig nur mit einer begrenz­ten Zahl an Daten gefüt­tert wer­den und das oft­mals nur ana­log und hän­disch. Auch unter­halb von 200 Mil­lio­nen Daten­sät­zen las­sen sich sol­che Modelle jedoch in IT nach­bauen und mit Daten füt­tern. Bei­spiels­weise als neu­ro­na­les Netz. Damit errei­chen sie eine weit­aus grö­ßere Pro­gno­se­kraft als ana­loge Modelle. Wir spre­chen dabei von Pre­dic­tive Ana­lytics.

Was kann Pre­dic­tive Ana­lytics leis­ten? Ein Thema ist die Früh­er­ken­nung von poli­ti­schen The­men oder ´Issues´, bevor sie sich z.B. zu einer Krise ent­wi­ckeln. Anwen­dun­gen hier­für gibt es in der Kri­sen­kom­mu­ni­ka­tion, im Risiko-​​Controlling oder in der Steue­rung von Verkehrs-​​, Waren– oder Per­so­nen­strö­men. Einen Schritt wei­ter­ge­dacht, las­sen sich Issue-​​Szenarien ent­wi­ckeln, die mit Ein­tritts­wahr­schein­lich­kei­ten ver­se­hen als Steue­rungs­in­stru­ment ver­wen­det wer­den kön­nen. Das ganze funk­tio­niert nahezu in Echt­zeit.

So kön­nen bei­spiels­weise Fra­gen zur Regu­lie­rung beant­wor­tet wer­den: Kommt eine Norm oder Vor­schrift oder nicht? Wird der Brexit hart oder weich? In der letz­ten Aus­bau­stufe kön­nen sol­che Modelle natür­lich auch ver­wen­det wer­den, um Stra­te­gien zu tes­ten: Was pas­siert, wenn eine bestimmte Maß­nahme umge­setzt wird? Bewegt sich das Sys­tem in meine Rich­tung; hin zu mei­nem bevor­zug­ten Sze­na­rio, oder nicht? Das sind alles bereits jetzt mach­bare Dinge. Ein wenig ent­fernt von künst­li­cher Intel­li­genz, aber mit einem hohen Nutz­wert.

Tho­mas Zim­mer­ling
Pana­lis Solu­ti­ons GmbH
Frank­furt am Main
www​.pana​lis​.de