Digitalisierung & Künstliche Intelligenz –
Wovon sprechen wir hier eigentlich?

Björn Berger , 25.01.2022

Digitalisierung ist nicht digitale Transformation, Künstliche Intelligenz ist nicht (nur) Machine Learning, Machine Learning ist nicht nur Deep Learning und Schach ist nicht Go. Eine Begriffsklärung zu unpräzisen Bezeichnungen, falschen Erwartungshaltungen an Technologien und schachspielenden Computern.

Im deutschen Sprachraum ist bei Diskussionen über den Einfluss neuer Technologien auf unsere Gesellschaft das Wort Digitalisierung allgegenwärtig. Digitalisierung der Industrie, Digitalisierung des Klassenzimmers, Digitalisierung des Eigenheims sind alles Überschriften, die in einem Artikel oder einer Trendanalyse niemanden verwundern würden.

Was bedeutet Digitalisierung?

Die ursprüngliche Bedeutung von Digitalisierung ist das wortwörtliche Digitalisieren von analogen Informationen, die maschinenlesbar gemacht werden. Metadaten, also zusätzliche Informationen über diese digitalisierten Elemente, können dabei verloren gehen, indem aus einer Schallplatte eine MP3-Datei ohne Interpreten, Trackliste oder Albumname wird, oder entstehen, wenn ich beim Einscannen eines Bildes Datum, Ort und andere Daten ergänze.

Dieses digitale Greifbarmachen von Objekten und Prozessen ist die Grundlage für weitere Veränderungen. Problematisch am Begriff der Digitalisierung ist jedoch, dass er häufig als Oberbegriff für all diese Prozesse gebraucht wird. Digitalisierung, digitaler Wandel und digitale Transformation werden dabei häufig synonym gebraucht, um möglichst alle unterschiedlichen Bedeutungsebenen einmal zu berühren.

Digitaler Wandel und digitale Transformation

Was die meisten Menschen meinen, die von Digitalisierung sprechen, entspricht begrifflich eher dem digitalen Wandel: die gesellschaftlichen Veränderungen, die durch Technologie entstehen, entweder als direkte Auswirkung einer Technologie oder durch neue Formen digitaler Kommunikation.

Im Vergleich zum digitalen Wandel kommt bei der digitalen Transformation eine wichtige Bedeutungsebene hinzu: Unternehmen und Organisationen verändern zielgerichtet und mit Hilfe digitaler Technologien ihre eigenen Prozesse und Ansätze. Um tatsächlich von einer Transformation zu sprechen, sollten diese Technologien von Grund auf mitgedacht und integriert werden und ganz im Sinne einer Transformation kann so etwas völlig Neues entstehen.

Das setzt neben den Technologien vor allem einen bewussten Veränderungsprozess voraus, der die eigene Haltung und Ausrichtung mitbeeinflusst. Am besten sollte das nicht nur als einmaliger Transformationsprozess mit einem Anfang und einem klaren Ende vollzogen werden, sondern als Teil eines anhaltenden und perpetuellen Change-Prozesses.

Künstliche Intelligenz

Man muss nur einen kurzen Bogen schlagen, um von den Begriffen Digitalisierung, digitaler Wandel und digitale Transformation zur künstlichen Intelligenz zu kommen. KI wird häufig als besonders disruptive Technologie beschrieben, die einen starken Einfluss auf unsere Gesellschaft haben kann.

Eine interessante Parallele zwischen Digitalisierung und KI ist dabei, dass künstliche Intelligenz ebenfalls als Oberbegriff für eine Reihe sehr unterschiedlicher Konzepte und Technologien genutzt wird. Eine konkrete Definition wird außerdem dadurch erschwert, dass man zunächst den Begriff der Intelligenz klar definieren müsste.

Grundlegend meinen die meisten Menschen mit dem Begriff künstliche Intelligenz allerdings die Simulation einer menschlichen Intelligenz, in der aktuellen Forschung zu künstlicher Intelligenz vor allem, um eine möglichst eng umrissene Aufgabe mit einer konkreten Problemlösungsstrategie angehen zu können.

Jetzt reinhören: unsere Podcast-Folge über künstliche Intelligenz

Podcast 20blue hour, Folge 10: Was kann KI?

Was kann künstliche Intelligenz? Das Thema klingt für viele zunächst nach Science Fiction und weit entfernter Zukunft. Im Gespräch von Dr. Matthias Standfest von Archilyse und Anja Mutschler wird allerdings schnell klar, dass wir eigentlich von komplexen statistischen Berechnungen sprechen und eigentlich viel mehr über Daten statt über KI sprechen sollten.

Von 20blue, 27.01.2022

Schach ist nicht Go …

Fortschritte in der Forschung zu künstlicher Intelligenz werden häufig immer dann für ein breiteres Publikum bekannt, wenn ein Programm oder eine Maschine einen Menschen in einem neuen Wettbewerb oder Spiel schlagen kann. In den Jahren 1996 und 1997 etwa kam Deep Blue zu Berühmtheit, ein Schachcomputer von IBM, der erstmals ein Spiel und schließlich auch ein Match gegen den damals amtierenden Schachweltmeister Garri Kasparow gewann.

2015 konnte der Algorithmus AlphaGo von DeepMind (Google) erstmals einen professionellen Go-Spieler schlagen, 2016 und 2017 gewann er gegen die zu diesem Zeitpunkt besten Go-Spieler der Welt.

Warum dauerte es so lange, bis auf Schach auch Go folgte? Die Regeln von Go lassen das Spiel auf den ersten Blick leichter als Schach wirken, das tatsächliche Spielen ist jedoch viel komplexer und abstrakter. Nach zwei Spielzügen ergeben sich bei Go ca. 130.000 mögliche Züge. Bei Schach sind es nur etwa 400.

… KI nicht (nur) Machine Learning …

Entsprechend unterschiedlich waren die Herangehensweisen, um einen Algorithmus für diese Spiele zu entwickeln. Deep Blue war ein physischer Schachcomputer, der vor allem auf seiner hohen Rechenleistung basierte. Dieser Hardware standen Tausende von Partien aktueller Schachmeister:innen zur Verfügung. Aus der Analyse dieser Partien und optimiert durch konkrete Eröffnungsstrategien weiterer Schachgroßmeister konnte das Programm den statistisch besten Zug für eine gegebene Spielsituation auswählen.

Diese Vorgehensweise eines Brute-Force-Algorithmus, der also alle möglichen Fälle ausprobiert, um eine Entscheidung zu treffen, führte bei Go nicht zu den gewünschten Erfolgen. Für AlphaGo wurden daher verschiedene Methoden des Machine Learning, also des maschinellen Lernens kombiniert, um einen Algorithmus zu programmieren, der automatisch durch Daten und die eigenen Beobachtungen dazulernt. Diese Trainingsdaten werden dazu genutzt, einen Algorithmus weiterzuentwickeln, der schließlich Entscheidungen über Fälle treffen kann, die nicht explizit in einem Trainingsdatensatz vorkamen.

Der Begriff des Machine Learning ist seitdem in unserem Sprachgebrauch angekommen und nach wie vor handelt es sich um einen sehr relevanten Forschungsbereich, der in Verbindung zur künstlichen Intelligenz steht. Problematisch daran ist, dass es seitdem auch Tendenzen gibt, beide Begriffe gleichbedeutend zu nutzen. Gleichzeitig umfasst der Begriff an sich viele verschiedene Technologien und unterschiedliche Herangehensweisen.

… und Machine Learning nicht nur Deep Learning

Schaffen wir also etwas begriffliche Klarheit am Beispiel der Brettspiele. Der Algorithmus von AlphaGo basiert auf Deep Learning, genauer auf Deep Neural Networks. Diese neuralen Netze orientieren sich am Aufbau des menschlichen Gehirns und bestehen aus verschiedenen Schichten künstlicher Neuronen, die jeweils mit mehreren Neuronen aus anderen Schichten verbunden sind. Die einzelnen Neuronen sind einfache lineare Transformationen, in ihrer Kombination wandeln Neuronale Netze einen Input durch die verschiedenen Schichten in einen Output um.

Dieses neurale Netz wird mit maschinellem Lernen kombiniert, um Entscheidungen zu evaluieren. Für AlphaGo kamen vor allem zwei Lernmethoden zum Einsatz, überwachtes Lernen (Supervised Learning) und verstärkendes Lernen (Reinforcement Learning). Überwachtes Lernen liefert dem Algorithmus im Trainingsset sowohl den Input als auch den gewünschten Output, also die Lösung. Aus diesem Trainingsset kann der Algorithmus dann eine Entscheidungsfindung ableiten. Beim verstärkenden Lernen wird dagegen keine richtige Aktion vorgegeben, der Algorithmus lernt kontinuierlich selbstständig an positiven oder negativen Reaktionen oder Belohnungen, die er von der Umgebung für eine Aktion erhält.

Bei den meisten Algorithmen wie AlphaGo werden verschiedene Methoden des Machine Learning genutzt oder kombiniert, Deep Learning ist bei weitem nicht der einzige Ansatz, auch wenn er durch den Erfolg von Deep Mind zu einem der bekanntesten Modelle wurde.

Fachidiotie der Algorithmen

Neben der begrifflichen Klärung zeigt das Beispiel der Brettspiele auch die Grenzen von verschiedenen Machine-Learning-Ansätzen. Deep Learning wie es bei AlphaGo eingesetzt wurde, kann auf Feedback reagieren und entsprechend eigene Züge entwickeln, ähnlich wie Menschen lernen, während sie mit ihrer Umgebung interagieren. Ganz im Gegensatz zu diesen Algorithmen sind Menschen jedoch auch sehr gut darin, Transferleistungen und Verbindungen zwischen unterschiedlichen Wissensdomänen zu schaffen.

Das können bisherige Deep-Learning-Algorithmen nicht oder zumindest noch nicht gut. AlphaGo wurde als Meilenstein im Bereich der KI-Forschung gefeiert. Wichtig ist dabei jedoch zu verstehen, dass dieser Algorithmus für den alleinigen und dabei absolut spezialisierten Verwendungszweck Go trainiert wurde. Es wird sich damit niemals Schach spielen lassen, sogar kleinste Modifizierungen am Regelwerk von Go, um ein mechanisch möglichst ähnliches Problem zu schaffen, machen den Algorithmus sofort viel weniger kompetent.

Das wirft auch die Frage auf, wie sinnvoll Spiele als Belastungstest für künstliche Intelligenz sind. Aktuell lernen Algorithmen beispielsweise Computerspiele wie Starcraft 2 oder DotA 2, und ernten dabei aus ähnlichen Gründen wie AlphaGo und der Schachcomputer DeepBlue Begeisterung: Menschen, die schon einmal ein ähnliches Spiel gespielt haben, haben direkt einen Bezug zur Komplexität der Aufgabe, die der aktuell neueste Algorithmus gerade gemeistert hat. Dahinter liegt jedoch die eher wenig hilfreiche Annahme, dass Dinge, die für Menschen schwierig sind, auch für Algorithmen schwierig sind. Der KI-Wissenschaftler Richard Sochers brachte dies im Interview mit Venturebeat auf den Punkt: “Once AI could solve chess, it didn’t really become smarter than people — it just got good at chess.”

Wenn diese hochspezialisierten Algorithmen also so schlecht darin sind, sich an eine neue Umgebung oder Situation anzupassen, dann schließt sich häufig direkt die Frage an, ob wir in der Lage sind, Algorithmen zu entwickeln, die diese Probleme nicht haben, die also auch in völlig neuen Wissensdomänen oder Problemfeldern effizient Aufgaben lösen können.

Der Traum und die falschen Erwartungen der Artificial General Intelligence

Ein Algorithmus, der diese Anforderungen erfüllt, wird meist als wesentliche Voraussetzung für eine AGI, Artificial General Intelligence, beschrieben. AGI ist eine beliebte Trope in der Science Fiction, bleibt aber immer noch das erklärte Ziel vieler AI-Forscher. In Verbindung mit dem Verstehen und Erzeugen natürlicher Sprache und dem Verstehen von Emotionen soll die AGI auf Augenhöhe oder sogar darüber mit Menschen interagieren und deren Verhalten simulieren können.

Man spricht dabei häufig auch von sogenannter starker KI, um sie von der schwachen KI abzugrenzen, also den bereits vorgestellten Teilbereichen, in denen ein Algorithmus für ein konkretes Anwendungsproblem entwickelt wird.

Auch wenn es kleine Erfolge auf dem Weg in diese Richtung gibt, wie etwa XLand von Deep Mind, sind wir von wirklicher AGI noch sehr weit entfernt. Gleichzeitig stellt sich auch die Frage, wie sinnvoll eine Fokussierung auf dieses eine Ziel für die Forschungsfelder der künstlichen Intelligenz und des maschinellen Lernens überhaupt ist.

Verbunden mit dem Traum von der AGI sind immer auch zu hohe Erwartungen an künstliche Intelligenz und maschinelles Lernen. Die Forschung zur künstlichen Intelligenz hat eine lange Geschichte, in der sie abwechselnd als die nächste große Entwicklung gefeiert wurde, nur um dann wieder durch finanzielle Fehlschläge und überhöhte Erwartungen in den Hintergrund zu treten.

Der erste dieser sogenannten „AI Winters“ war bereits in den 1970ern, als der von Frank Rosenblatt entwickelte Perceptron-Algorithmus hinter den Erwartungen zurückblieb, die von Rosenblatt extrem hoch angekündigt wurden: es solle nicht mehr lange dauern, bis der Perceptron Menschen in Schach schlagen, Bilder erkennen und sich sogar fortpflanzen könne.

Fazit

Digitalisierung, digitaler Wandel und digitale Transformation werden vermutlich auch in Zukunft durcheinander geworfen. Es sind Buzzwords, die die Diskussionen um ein Thema anstoßen sollen und das ist auch in Ordnung. Eine gewisse begriffliche Präzision kann sich allerdings lohnen, schließlich hilft es uns, wie wir über diese Dinge nachdenken.

Wenn wir uns bei der nächsten Diskussion über eine Digitalisierungsstrategie klar machen, dass es eigentlich um eine digitale Transformationsstrategie geht, dann kann das Klarheit darüber schaffen, dass es nicht nur um Technologien, sondern um Haltung und einen bewussten und zielgerichteten Veränderungsprozess geht.

Auch bei der Diskussion über künstliche Intelligenz hilft uns eine begriffliche Präzision. Es mag nicht so attraktiv erscheinen, von statistischen Algorithmen zu sprechen statt von futuristisch klingender, aber nicht näher bestimmter, künstlicher Intelligenz. Auf der anderen Seite klingt es doch gleich beeindruckender, wenn man kommunizieren kann, dass man einen spezialisierten Deep-Reinforcement-Learning-Algorithmus entwickelt hat, als wenn man sich auf das vage Versprechen KI-gestützter Tools zurückzieht. Ein wenig Entzauberung tut uns allen gut, um mit realistischen Erwartungen und den richtigen Fragen und Lösungsansätzen auf neue Technologien und deren Einfluss auf unsere Gesellschaft zu schauen.

Mehr Lesestoff

informieren
arbeiten

5 Dinge, die in Research-projekten schief gehen
– und wie man sie vermeidet

Wie gut ein Research-Projekt funktioniert, lässt sich häufig schon an der Fragestellung erkennen, aus der erst einmal eine richtige Frage gemacht werden muss – die Forschungsfrage, gefolgt vom Forschungsdesign. Erst danach klären wir, wie viel Raum Recruiting, Compilation und Projektmanagement brauchen. Der Schulterblick ist für den reibungslosen Ablauf elementar, aber auch die passende „Chemie“ der Expert:innen. Aus über 1.000 Projekten haben wir für Sie diese 5 Punkte destilliert, die schief gehen können – aber auch, wie Sie die vermeiden.

Von Björn Berger, 29.09.2021

werkstattbericht
informieren
arbeiten

Werkstattbericht, Teil 2:
Was ist Agiles Denken? Herkunft und Umsetzung

Wie arbeitet 20blue als agile Denkmanufaktur eigentlich? In unseren Werkstattberichten werfen wir einen Blick hinter die Kulissen. Im zweiten Teil erklärt Head of Digital & Information Björn Berger die Grundlagen und Hintergründe unserer neuen Methode „agiles Denken“

Von Björn Berger, 01.06.2021

arbeiten
informieren
konsumieren

Interkulturelles Weihnachtsessen – Worauf Sie achten müssen

Weihnachtstraditionen gibt es viele und die hören beim Weihnachtsessen nicht auf. Wir zeigen Ihnen die ungewöhnlichen und alltäglichen Weihnachts- und Wintergerichte, die unsere Länderexperten für Schweden, Frankreich und Polen gesammelt haben. In einem anderen Land gibt es dagegen statt aufwendigen Weihnachtsgerichten meistens eher einen Eimer KFC.

Von Björn Berger, 22.12.2017

informieren

Wenn zugleich, dann deswegen? Falsch! Big Data und das Problem von Kausalität und Korrelation

„Correlation does not imply causation!“ wird bei der Analyse von Daten immer wieder gewarnt. Wir zeigen, warum es doch immer wieder passiert und warum einige Stimmen in Zeiten von Big Data behaupten, dass Korrelation angeblich ausreichen soll. Vor allem zeigen wir, wie man wirklich richtig mit Daten umgeht.

Von Björn Berger, 06.04.2016

Keinen Beitrag mehr verpassen

In unseren regelmäßig erscheinenden Formaten präsentieren wir regelmäßig die spannendsten Inhalte und Insights von 20blue.

E-Mail-Einstellungen

Ihr direkter Draht zum 20blue-Team

Egal, ob Anfrage, Bewerbung oder Presse: Wir lesen Ihre Nachrichten zwischen 9 und 17 Uhr und beantworten Ihre Anfragen binnen 24 Stunden. Oft auch schneller.