Zum Hauptinhalt springen
Kontakt aufnehmen
Blog

Digitalisierung & Künstliche Intelligenz – Wovon sprechen wir eigentlich?

Ein Beitrag von Björn Berger

Digitales und KI aufmerksam im Blick, bringt Björn Research-Projekte und interne Digitalisierungsprozesse bei 20blue voran und berichtet über Tech-Trends und unsere Services.

Mehr von Björn Berger

Veröffentlicht: 24.01.2022

Lesezeit: 10 Minuten

Letzte Änderung: 26.09.2023

Themen:

Schlagworte:

  • #digitalisierung
  • #KI
  • #transformation

Digitalisierung ist nicht digitale Transformation, Künstliche Intelligenz ist nicht (nur) Machine Learning, Machine Learning ist nicht nur Deep Learning und Schach ist nicht Go. Eine Begriffsklärung zu unpräzisen Bezeichnungen, falschen Erwartungshaltungen an Technologien und schachspielenden Computern.

Im deutschen Sprachraum ist bei Diskussionen über den Einfluss neuer Technologien auf unsere Gesellschaft das Wort Digitalisierung allgegenwärtig. Digitalisierung der Industrie, Digitalisierung des Klassenzimmers, Digitalisierung des Eigenheims sind alles Überschriften, die in einem Artikel oder einer Trendanalyse niemanden verwundern würden.

Was bedeutet Digitalisierung?

Die ursprüngliche Bedeutung von Digitalisierung ist das wortwörtliche Digitalisieren von analogen Informationen, die maschinenlesbar gemacht werden. Metadaten, also zusätzliche Informationen über diese digitalisierten Elemente, können dabei verloren gehen, indem aus einer Schallplatte eine MP3-Datei ohne Interpreten, Trackliste oder Albumname wird, oder entstehen, wenn ich beim Einscannen eines Bildes Datum, Ort und andere Daten ergänze.

Dieses digitale Greifbarmachen von Objekten und Prozessen ist die Grundlage für weitere Veränderungen. Problematisch am Begriff der Digitalisierung ist jedoch, dass er häufig als Oberbegriff für all diese Prozesse gebraucht wird. Digitalisierung, digitaler Wandel und digitale Transformation werden dabei häufig synonym gebraucht, um möglichst alle unterschiedlichen Bedeutungsebenen einmal zu berühren.

Digitaler Wandel und digitale Transformation

Was die meisten Menschen meinen, die von Digitalisierung sprechen, entspricht begrifflich eher dem digitalen Wandel: die gesellschaftlichen Veränderungen, die durch Technologie entstehen, entweder als direkte Auswirkung einer Technologie oder durch neue Formen digitaler Kommunikation.

Im Vergleich zum digitalen Wandel kommt bei der digitalen Transformation eine wichtige Bedeutungsebene hinzu: Unternehmen und Organisationen verändern zielgerichtet und mit Hilfe digitaler Technologien ihre eigenen Prozesse und Ansätze. Um tatsächlich von einer Transformation zu sprechen, sollten diese Technologien von Grund auf mitgedacht und integriert werden und ganz im Sinne einer Transformation kann so etwas völlig Neues entstehen.

Das setzt neben den Technologien vor allem einen bewussten Veränderungsprozess voraus, der die eigene Haltung und Ausrichtung mitbeeinflusst. Am besten sollte das nicht nur als einmaliger Transformationsprozess mit einem Anfang und einem klaren Ende vollzogen werden, sondern als Teil eines anhaltenden und perpetuellen Change-Prozesses.

Künstliche Intelligenz

Man muss nur einen kurzen Bogen schlagen, um von den Begriffen Digitalisierung, digitaler Wandel und digitale Transformation zur künstlichen Intelligenz zu kommen. KI wird häufig als besonders disruptive Technologie beschrieben, die einen starken Einfluss auf unsere Gesellschaft haben kann.

Eine interessante Parallele zwischen Digitalisierung und KI ist dabei, dass künstliche Intelligenz ebenfalls als Oberbegriff für eine Reihe sehr unterschiedlicher Konzepte und Technologien genutzt wird. Eine konkrete Definition wird außerdem dadurch erschwert, dass man zunächst den Begriff der Intelligenz klar definieren müsste.

Grundlegend meinen die meisten Menschen mit dem Begriff künstliche Intelligenz allerdings die Simulation einer menschlichen Intelligenz, in der aktuellen Forschung zu künstlicher Intelligenz vor allem, um eine möglichst eng umrissene Aufgabe mit einer konkreten Problemlösungsstrategie angehen zu können.

Jetzt reinhören: unsere Podcast-Folge über künstliche Intelligenz

Schach ist nicht Go …

Fortschritte in der Forschung zu künstlicher Intelligenz werden häufig immer dann für ein breiteres Publikum bekannt, wenn ein Programm oder eine Maschine einen Menschen in einem neuen Wettbewerb oder Spiel schlagen kann. In den Jahren 1996 und 1997 etwa kam Deep Blue zu Berühmtheit, ein Schachcomputer von IBM, der erstmals ein Spiel und schließlich auch ein Match gegen den damals amtierenden Schachweltmeister Garri Kasparow gewann.

2015 konnte der Algorithmus AlphaGo von DeepMind (Google) erstmals einen professionellen Go-Spieler schlagen, 2016 und 2017 gewann er gegen die zu diesem Zeitpunkt besten Go-Spieler der Welt.

Warum dauerte es so lange, bis auf Schach auch Go folgte? Die Regeln von Go lassen das Spiel auf den ersten Blick leichter als Schach wirken, das tatsächliche Spielen ist jedoch viel komplexer und abstrakter. Nach zwei Spielzügen ergeben sich bei Go ca. 130.000 mögliche Züge. Bei Schach sind es nur etwa 400.

… KI nicht (nur) Machine Learning …

Entsprechend unterschiedlich waren die Herangehensweisen, um einen Algorithmus für diese Spiele zu entwickeln. Deep Blue war ein physischer Schachcomputer, der vor allem auf seiner hohen Rechenleistung basierte. Dieser Hardware standen Tausende von Partien aktueller Schachmeister*innen zur Verfügung. Aus der Analyse dieser Partien und optimiert durch konkrete Eröffnungsstrategien weiterer Schachgroßmeister konnte das Programm den statistisch besten Zug für eine gegebene Spielsituation auswählen.

Diese Vorgehensweise eines Brute-Force-Algorithmus, der also alle möglichen Fälle ausprobiert, um eine Entscheidung zu treffen, führte bei Go nicht zu den gewünschten Erfolgen. Für AlphaGo wurden daher verschiedene Methoden des Machine Learning, also des maschinellen Lernens kombiniert, um einen Algorithmus zu programmieren, der automatisch durch Daten und die eigenen Beobachtungen dazulernt. Diese Trainingsdaten werden dazu genutzt, einen Algorithmus weiterzuentwickeln, der schließlich Entscheidungen über Fälle treffen kann, die nicht explizit in einem Trainingsdatensatz vorkamen.

Der Begriff des Machine Learning ist seitdem in unserem Sprachgebrauch angekommen und nach wie vor handelt es sich um einen sehr relevanten Forschungsbereich, der in Verbindung zur künstlichen Intelligenz steht. Problematisch daran ist, dass es seitdem auch Tendenzen gibt, beide Begriffe gleichbedeutend zu nutzen. Gleichzeitig umfasst der Begriff an sich viele verschiedene Technologien und unterschiedliche Herangehensweisen.

… und Machine Learning nicht nur Deep Learning

Schaffen wir also etwas begriffliche Klarheit am Beispiel der Brettspiele. Der Algorithmus von AlphaGo basiert auf Deep Learning, genauer auf Deep Neural Networks. Diese neuralen Netze orientieren sich am Aufbau des menschlichen Gehirns und bestehen aus verschiedenen Schichten künstlicher Neuronen, die jeweils mit mehreren Neuronen aus anderen Schichten verbunden sind. Die einzelnen Neuronen sind einfache lineare Transformationen, in ihrer Kombination wandeln Neuronale Netze einen Input durch die verschiedenen Schichten in einen Output um.

Dieses neurale Netz wird mit maschinellem Lernen kombiniert, um Entscheidungen zu evaluieren. Für AlphaGo kamen vor allem zwei Lernmethoden zum Einsatz, überwachtes Lernen (Supervised Learning) und verstärkendes Lernen (Reinforcement Learning). Überwachtes Lernen liefert dem Algorithmus im Trainingsset sowohl den Input als auch den gewünschten Output, also die Lösung. Aus diesem Trainingsset kann der Algorithmus dann eine Entscheidungsfindung ableiten. Beim verstärkenden Lernen wird dagegen keine richtige Aktion vorgegeben, der Algorithmus lernt kontinuierlich selbstständig an positiven oder negativen Reaktionen oder Belohnungen, die er von der Umgebung für eine Aktion erhält.

Bei den meisten Algorithmen wie AlphaGo werden verschiedene Methoden des Machine Learning genutzt oder kombiniert, Deep Learning ist bei weitem nicht der einzige Ansatz, auch wenn er durch den Erfolg von Deep Mind zu einem der bekanntesten Modelle wurde.

Fachidiotie der Algorithmen

Neben der begrifflichen Klärung zeigt das Beispiel der Brettspiele auch die Grenzen von verschiedenen Machine-Learning-Ansätzen. Deep Learning wie es bei AlphaGo eingesetzt wurde, kann auf Feedback reagieren und entsprechend eigene Züge entwickeln, ähnlich wie Menschen lernen, während sie mit ihrer Umgebung interagieren. Ganz im Gegensatz zu diesen Algorithmen sind Menschen jedoch auch sehr gut darin, Transferleistungen und Verbindungen zwischen unterschiedlichen Wissensdomänen zu schaffen.

Das können bisherige Deep-Learning-Algorithmen nicht oder zumindest noch nicht gut. AlphaGo wurde als Meilenstein im Bereich der KI-Forschung gefeiert. Wichtig ist dabei jedoch zu verstehen, dass dieser Algorithmus für den alleinigen und dabei absolut spezialisierten Verwendungszweck Go trainiert wurde. Es wird sich damit niemals Schach spielen lassen, sogar kleinste Modifizierungen am Regelwerk von Go, um ein mechanisch möglichst ähnliches Problem zu schaffen, machen den Algorithmus sofort viel weniger kompetent.

Das wirft auch die Frage auf, wie sinnvoll Spiele als Belastungstest für künstliche Intelligenz sind. Aktuell lernen Algorithmen beispielsweise Computerspiele wie Starcraft 2 oder DotA 2, und ernten dabei aus ähnlichen Gründen wie AlphaGo und der Schachcomputer DeepBlue Begeisterung: Menschen, die schon einmal ein ähnliches Spiel gespielt haben, haben direkt einen Bezug zur Komplexität der Aufgabe, die der aktuell neueste Algorithmus gerade gemeistert hat. Dahinter liegt jedoch die eher wenig hilfreiche Annahme, dass Dinge, die für Menschen schwierig sind, auch für Algorithmen schwierig sind. Der KI-Wissenschaftler Richard Sochers brachte dies im Interview mit Venturebeat auf den Punkt: “Once AI could solve chess, it didn’t really become smarter than people — it just got good at chess.”

Wenn diese hochspezialisierten Algorithmen also so schlecht darin sind, sich an eine neue Umgebung oder Situation anzupassen, dann schließt sich häufig direkt die Frage an, ob wir in der Lage sind, Algorithmen zu entwickeln, die diese Probleme nicht haben, die also auch in völlig neuen Wissensdomänen oder Problemfeldern effizient Aufgaben lösen können.

Der Traum und die falschen Erwartungen der Artificial General Intelligence

Ein Algorithmus, der diese Anforderungen erfüllt, wird meist als wesentliche Voraussetzung für eine AGI, Artificial General Intelligence, beschrieben. AGI ist eine beliebte Trope in der Science Fiction, bleibt aber immer noch das erklärte Ziel vieler AI-Forscher. In Verbindung mit dem Verstehen und Erzeugen natürlicher Sprache und dem Verstehen von Emotionen soll die AGI auf Augenhöhe oder sogar darüber mit Menschen interagieren und deren Verhalten simulieren können.

Man spricht dabei häufig auch von sogenannter starker KI, um sie von der schwachen KI abzugrenzen, also den bereits vorgestellten Teilbereichen, in denen ein Algorithmus für ein konkretes Anwendungsproblem entwickelt wird.

Auch wenn es kleine Erfolge auf dem Weg in diese Richtung gibt, wie etwa XLand von Deep Mind, sind wir von wirklicher AGI noch sehr weit entfernt. Gleichzeitig stellt sich auch die Frage, wie sinnvoll eine Fokussierung auf dieses eine Ziel für die Forschungsfelder der künstlichen Intelligenz und des maschinellen Lernens überhaupt ist.

Verbunden mit dem Traum von der AGI sind immer auch zu hohe Erwartungen an künstliche Intelligenz und maschinelles Lernen. Die Forschung zur künstlichen Intelligenz hat eine lange Geschichte, in der sie abwechselnd als die nächste große Entwicklung gefeiert wurde, nur um dann wieder durch finanzielle Fehlschläge und überhöhte Erwartungen in den Hintergrund zu treten.

Der erste dieser sogenannten „AI Winters“ war bereits in den 1970ern, als der von Frank Rosenblatt entwickelte Perceptron-Algorithmus hinter den Erwartungen zurückblieb, die von Rosenblatt extrem hoch angekündigt wurden: es solle nicht mehr lange dauern, bis der Perceptron Menschen in Schach schlagen, Bilder erkennen und sich sogar fortpflanzen könne.

Fazit

Digitalisierung, digitaler Wandel und digitale Transformation werden vermutlich auch in Zukunft durcheinander geworfen. Es sind Buzzwords, die die Diskussionen um ein Thema anstoßen sollen und das ist auch in Ordnung. Eine gewisse begriffliche Präzision kann sich allerdings lohnen, schließlich hilft es uns, wie wir über diese Dinge nachdenken.

Wenn wir uns bei der nächsten Diskussion über eine Digitalisierungsstrategie klar machen, dass es eigentlich um eine digitale Transformationsstrategie geht, dann kann das Klarheit darüber schaffen, dass es nicht nur um Technologien, sondern um Haltung und einen bewussten und zielgerichteten Veränderungsprozess geht.

Auch bei der Diskussion über künstliche Intelligenz hilft uns eine begriffliche Präzision. Es mag nicht so attraktiv erscheinen, von statistischen Algorithmen zu sprechen statt von futuristisch klingender, aber nicht näher bestimmter, künstlicher Intelligenz. Auf der anderen Seite klingt es doch gleich beeindruckender, wenn man kommunizieren kann, dass man einen spezialisierten Deep-Reinforcement-Learning-Algorithmus entwickelt hat, als wenn man sich auf das vage Versprechen KI-gestützter Tools zurückzieht. Ein wenig Entzauberung tut uns allen gut, um mit realistischen Erwartungen und den richtigen Fragen und Lösungsansätzen auf neue Technologien und deren Einfluss auf unsere Gesellschaft zu schauen.

Weitere interessante Beiträge

Kooperation in kollaborativ: wie Business-Partnerschaften gelingen

Werkstattbericht

Kooperation in kooperativ: Wie funktionieren gelungene Business-Partnerschaften im agilen Krisenzeitalter? Eine Bestandsaufnahme von Anja Mutschler, 20blue

#csr #kommunikation #kooperation #transformation
14.03.2024 | Anja Mutschler

Staffel 2, Folge 3: Dezentrales Erinnern und Denkmäler

In dieser Dezember-Ausgabe des 20blue-Podcasts spricht die aus dem Westen nach Leipzig gekommene Unternehmensgründerin Anja Mutschler mit einer Frau, die eine andere Geschichte hat: Gesine Oltmanns, Zeitzeugin und Mitgründerin der...

#geschichte #kultur #politik
12.12.2023 | Kristian Schulze

Staffel 2, Folge 2: Szenarioplanung

In der zweiten Folge der neuen 20blue-hour-Staffel hat Anja Mutschler Hanna Jürgensmeier zu Gast, Partnerin bei der ScMI AG – einer auf Zukunftsszenarien spezialisierten Beratung für Strategie und Innovationen.

01.12.2023 | 20blue

Wie positionieren sich Unternehmen international in unsicheren Zeiten?

Werkstattbericht

Unser White Paper stellt die wichtigsten Entwicklungen und Treiber im Bereich der Internationalisierung vor und erarbeitet die Fragen, die sich Unternehmen aktuell stellen sollten.

#internationalisierung
02.11.2023 | 20blue

Staffel 2, Folge 1: Shitstorms und Online-Kommunikation

Folge 1 der neuen Staffel beschäftigt sich mit Shitstorms und Online-Kommunikation, den Spezialthemen von Dr. Christian Salzborn.

02.11.2023 | 20blue

20blue minutes #17: Prof. Dr. Ralf Wehrspohn

In der 17. Folge der 20blue minutes ist Prof. Ralf Wehrspohn von der Martin-Luther-Universität Halle-Wittenberg zu Gast, um mit Anja Mutschler über disruptive und inkrementelle Innovationen im Zusammenspiel von Forschung...

#forschung #innovation #wirtschaft
23.08.2023 | 20blue

Über 20blue

Das Research Institute 20blue bringt Sie weiter! Wir sorgen seit 2011 mit wissenschaftlichen Insights und Methoden für den nötigen Durchblick. Unser Research Institute sichert Entscheidungen ab - dank 300 Expert*innen aus vielen Disziplinen, Branchen und Ländern. Ebenso vielfältig: unsere Kunden aus Wirtschaft und Politik. Im interdisziplinären Zusammenspiel entsteht neues Wissen auf dem Weg zur nachhaltigen Transformation.

Mehr erfahren