Das Märchen von der künstlichen Intelligenz
Eine McKinsey Studie kam in diesem Jahr zu dem Ergebnis, wonach Anwendungen mit künstlicher Intelligenz (KI) einen höheren Wertbeitrag für das globale Bruttoinlandsprodukt erbringen werden, als die Dampfmaschine, Industrieroboter oder die Informations– und Telekommunikationstechnologie.
Schaut man sich an, wo KI Stand heute vor allem zum Einsatz kommt, dann sind die Einsatzbereiche noch sehr überschaubar: Spracherkennung, Übersetzungen, Texterstellung. Und wir alle wissen aus Anwendersicht, dass Übersetzungswerkzeuge erst seit kurzem richtig gut auch in punkto Grammatik sind. In Bezug auf Texterstellung sind es vor allem standardisierte Texte, die gut von einer KI erstellt werden können: Wetter– und Sportberichte oder auch Produkttexte in Online-Shops. Sowohl die Alexas dieser Welt als auch unsere sprachgesteuerten Navigationssysteme schicken uns immer noch ab und an in die Irre.
Wer mit Experten für KI spricht, erfährt sehr schnell, woran das liegen könnte: Maschinen für künstliche Intelligenz entfalten ihre ganze Kraft erst dann, wenn sie mit mindestens 200, 250 Millionen Datensätzen arbeiten können. Und wer hat die schon?
Die Organisationen und Konzerne, die einen solchen Datenreichtum ihr Eigen nennen, kann man recht schnell aufzählen. Wie lassen sich die Datenschätze unterhalb dieser Schwelle heben? Schauen wir auf das, wofür sich der Datenbankexperte für politische Texte – PANALIS Solutions – entschieden hat. Für viele Phänomene gibt es wissenschaftliche Modelle aus der Politik, Kommunikation oder Soziologie. Sie sollen die gegenwärtige Wirklichkeit möglichst gut beschreiben und vor allem die Zukunft vorhersagen.
Speziell Modelle aus den Geisteswissenschaften können häufig nur mit einer begrenzten Zahl an Daten gefüttert werden und das oftmals nur analog und händisch. Auch unterhalb von 200 Millionen Datensätzen lassen sich solche Modelle jedoch in IT nachbauen und mit Daten füttern. Beispielsweise als neuronales Netz. Damit erreichen sie eine weitaus größere Prognosekraft als analoge Modelle. Wir sprechen dabei von Predictive Analytics.
Was kann Predictive Analytics leisten? Ein Thema ist die Früherkennung von politischen Themen oder ´Issues´, bevor sie sich z.B. zu einer Krise entwickeln. Anwendungen hierfür gibt es in der Krisenkommunikation, im Risiko-Controlling oder in der Steuerung von Verkehrs-, Waren– oder Personenströmen. Einen Schritt weitergedacht, lassen sich Issue-Szenarien entwickeln, die mit Eintrittswahrscheinlichkeiten versehen als Steuerungsinstrument verwendet werden können. Das ganze funktioniert nahezu in Echtzeit.
So können beispielsweise Fragen zur Regulierung beantwortet werden: Kommt eine Norm oder Vorschrift oder nicht? Wird der Brexit hart oder weich? In der letzten Ausbaustufe können solche Modelle natürlich auch verwendet werden, um Strategien zu testen: Was passiert, wenn eine bestimmte Maßnahme umgesetzt wird? Bewegt sich das System in meine Richtung; hin zu meinem bevorzugten Szenario, oder nicht? Das sind alles bereits jetzt machbare Dinge. Ein wenig entfernt von künstlicher Intelligenz, aber mit einem hohen Nutzwert.
Thomas Zimmerling
Panalis Solutions GmbH
Frankfurt am Main
www.panalis.de