Auf Einladung der Friedrich-Ebert-Stiftung durfte ich beim Kongress „Digitaler Kapitalismus“ zu wirtschaftlichen Strategien und politischen Herausforderungen im Kontext Künstliche Intelligenz sprechen.

In meinem Impuls habe ich dazu wie folgt Stellung bezogen:

  • KI sorgt für ökonomische Veränderungen in drei Bereichen:
    • Produktivität: Die neuen Formen intelligenter Automatisierung gehen weit über bisherige Möglichkeiten von Software hinaus. Erstmals können komplexe Vorgänge direkt in der physikalischen/reellen Welt durchgeführt werden, die ein hohes Maß an Anpassungsfähigkeit und Flexibilität Durch KI getrieben Systeme können durch „Erfahrung“ hinzulernen und sich verbessern.
    • Wertschöpfung: KI verändert Wertschöpfungsketten durch die Möglichkeit, Kapital (möglicherweise) effizienter einzusetzen. Dies bedeutet insbesondere Veränderungen für Arbeiterinnen und Arbeiter, die teilweise ersetzt werden könnten, viel wahrscheinlicher aber durch proaktive Empfehlungen von KI-Systemen unterstützt werden.
    • Innovation: KI öffnet zuvor nie da gewesene Möglichkeiten für neue Geschäftsmodelle und Produkte, die für massive Disruption in existierenden Industrien sorgen werden. Autonomes Fahren wird das Design von Fahrzeugen genauso ändern, wie die Anforderungen an ihre Fahrer. Sprachassistenten, wie Alexa oder Siri, waren bislang nicht umsetzbar.
  • Die Einführung von KI-Lösungen erfordert vier Kernkompetenzen:
    • Skills: Mitarbeiterinnen und Mitarbeiter müssen neue Fähigkeiten zum Umgang mit KI erlernen. Unternehmen und Behörden müssen Expertenwissen akquirieren, um KI-basierte Lösungen zu entwickeln. Dies betrifft kurzfristig die Vorstandsebene und geht langfristig bis in nahezu jeden Bereich über. Auch wenn KI vor allem ein Technologiethema ist, so müssen die Möglichkeiten und Grenzen aber auch außerhalb der IT verstanden
    • Daten: Ein wichtiger Baustein sind Trainingsdaten anhand derer Algorithmen lernen können. Diese müssen aufgebaut, validiert und kontinuierlich weiterentwickelt werden. Um KI einzusetzen sind dabei aber längst nicht mehr riesige Datenmengen nötig, wie sie nur GAFAs erzeugen können. Die Qualität von Expertenwissen oder Crowdworkern kann dort helfen, wo die Quantität von Daten fehlt.
      Und der strenge Datenschutz in Europa muss hier kein Hindernis sein, wenn man auf anonymisierte und synthetische Daten zurückgreift.
    • Rechenleistung: KI erfordert enorme Rechenleistung. Glücklicherweise wird nach wie vor günstiger. High Performance Cloud Computing für anspruchsvolle ML-Modelle ist für weit weniger als einem Euro pro Stunde für kleine und mittlere Unternehmen erwerbbar.
    • Technologie: Inzwischen bieten Anbieter wie Google (Tensorflow), Facebook (Caffe2) und Microsoft (CNTK) umfangreiche Bibliotheken im ML- und Deep Learning-Bereich an, um bspw. Bild- und Spracherkennung für neue Anwendungen zu adaptieren.
  • Auch wenn die Wahrnehmung in der Diskussion um eine stärkere Regulierung der GAFAs und die Öffnung deren Datenpools oft eine Andere ist – KI hat relativ geringe Eintrittsbarrieren. Die wichtigsten Verfahren werden relativ schnell in die Breite getragen und sind mit geringem Kapitalaufwand öffentlich zugänglich.
  • Dennoch bestehen Hindernisse für Unternehmen:
    • Allen voran sind diese auf Altlasten durch bestehende Systeme, analoge Verkaufskanäle und nicht erschlossene Daten, sowie die fehlende Qualifikation der Mitarbeiterinnen und Mitarbeiter zurückzuführen. Nichts davon sind aber Herausforderungen, die Unternehmen nicht selbst bestreiten könnten, ja müssen.
  • Was bedeutet dies für eine mögliche Regulierung der GAFAs?
    • Hier stellt sich die Frage, ob etwa eine „Daten-Steuer“ oder das von Mayer-Schönberger vorgeschlagene „Progressive Data Sharing Mandate“ das richtige Instrument ist, um die GAFAs einzuhegen. Die Annahme, die dem zugrunde liegt ist, dass mit immer mehr Daten, die ein Unternehmen sammelt, eine größere Marktmacht entsteht und eine Steuer für mehr Wettbewerbsfähigkeit sorgen könnte. Ich halte diesen Wirkungszusammenhang für fehlgeleitet.
    • Nicht die schiere Menge an Daten, sondern deren intelligente Auswertung sorgen für Wettbewerbsvorteile.
    • Struktur und Inhalt von Daten erschließen sich meist nur denjenigen, die diese Daten auch gesammelt haben. Sie für andere nutzbar zu machen ist sehr schwer.
    • Sind es daher nicht eigentlich die Derivate dieser Daten, nämlich die trainierten Modelle und Algorithmen, die frei zugänglich gemacht werden müssten, um anderen Unternehmen eine Wettbewerbsfähigkeit zu ermöglichen? Wenn ja, dann tun die GAFAs schon viel dafür, bspw. in Form der Bereitstellung der o.g. Bibliotheken.
    • Auf der anderen Seite könnten staatliche Stellen endlich ihre eigenen Datenpools öffentlich machen. Eine Forderung, die die Open Data-Bewegung seit jeher stellt. Bislang wird dies aber nur rudimentär getan. Die mCloud vom BMVI stellt hier eine eher positive Ausnahme dar, ist aber im Vergleich zu bekannten Portalen wie dem der Stadt Boston immer noch klein und uneinheitlich strukturiert.
  • Wie könnte also eine politische Antwort auf KI aussehen? Die Bundesregierung will Leitlinien in einer nationalen KI-Strategie im Dezember beim Digitalgipfel vorstellen – und kommt damit ein Jahr nach Ländern, wie Kanada, Japan und China, die sich bereits positioniert und zu Förderprogrammen verpflichtet haben.
    • Eine nationale KI-Strategie sollte sich aber nicht nur auf die Erforschung einzelner Technologien fokussieren, sondern den Aufbau und die Förderung eines starken und international wettbewerbsfähigen KI-Ökosystems im Austausch zwischen Wirtschaft, Wissenschaft und Gesellschaft in den Mittelpunkt stellen.
    • Die Stiftung Neue Verantwortung empfiehlt hierbei u.a. Forschungsinvestitionen zu steigern, KI-Kompetenzen auch in der Ausbildung zu fördern oder eine Unterstützung des Mittelstands bei KI-Experimenten aufzulegen. Dabei muss das Ganze international, etwa in Kooperation mit Frankreich und anderen europäischen Ländern gedacht werden. Ein Alleinstellungsmerkmal könnten dabei Maschinendaten darstellen, bei denen Deutschland im Industrie 4.0-Kontext eine Vorreiterrolle einnehmen könnte und selbst Standards setzt – anstatt, wie in anderen Bereichen, anderen Playern hinterzulaufen.

Das Ganze haben wir unter der Moderation von Philipp Staab mit Eva-Maria Nyckel und dem Publikum diskutiert.