Aufgrund der aktuellen, leider vereinfachenden Berichterstattung in den Medien sehen wir einen Bedarf an einfachen und verständlichen Informationen zum Thema KI, insbesondere zu den damit verbundenen Risiken.
KI ist kein neues Thema. Bereits seit den 40er-Jahren des letzten Jahrhunderts wird auf diesem Gebiet geforscht, auch bekannt unter dem Begriff „Neuronale Netze“.
Die Darthmouth-Konferenz, die 1956 von Wissenschaftlern und Studenten initiiert wurde, gilt als Geburtsstunde der KI als akademische Disziplin.
Nach einigen Höhen und Tiefen in der Forschung, die übrigens nicht auf mangelnde Ressourcen in der Computertechnik zurückzuführen waren, sondern auf die Entwicklung von KI-Architekturkonzepten wie Fehlerrückführung und Selbstorganisation von KI-Modellen, gelang John Hopfield 1985 ein entscheidender Durchbruch in der theoretischen Informatik. (Neural networks and physical systems with emergent collective computational abilities, Proceedings National Academy of Sciences, Bd. 79, 1982, S. 2554, zusammen mit D. W. Tank, Neural computation of decisions in optimization problems, Biological Cybernetics).
Nach mehreren weiteren Anläufen gelang Forschern von Google Brain und Google Research im Juni 2017 mit der Architektur Transformers eine echte Revolution in der KI.
Transformers wurde in einem Paper mit dem Titel „Attention is All You Need“ von den Forschern Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser und Illia Polosukhin beschrieben und veröffentlicht.
Darüber hinaus beschäftigen sich unzählige Universitäten, Institutionen und Non-Profit-Organisationen auf der ganzen Welt seit vielen Jahren und Jahrzehnten mit diesem Thema.
Führende Wissenschaftler wie Yoshua Bengio und Geoffrey Hinton sind sich einig, dass die Probleme so schnell wie möglich auf gesellschaftlicher Ebene angegangen werden müssen. Bengio weist aber auch darauf hin, dass die Entwicklung der KI schneller voranschreitet, als die Gesellschaften Schritt halten können. Fortschritte werden in Monaten gemessen, Gesetzgebung, Regulierung und internationale Verträge brauchen Jahre.
Es stellt sich die Frage, ob unsere Gesellschaften auf nationaler und globaler Ebene der Herausforderung KI gewachsen sind.
Für IT-affine Leser gilt: „Don’t panic!“
für alle anderen Leser auch.
Vielleicht konnten wir sie mit diesen wenigen Zeilen bereits für das Thema KI erwärmen. Wer sich für das Thema begeistern möchte, dem sei diese Vortagsreihe ans Herz gelegt. Die Gewinner des Turing Award 2018, des Nobelpreises für Informatik, erklären verständlich, wie KI funktioniert. Wir garantieren Ihnen 90 Minuten, die Ihnen die Grundlagen für eine gesunde Einschätzung der Chancen und Risiken von KI in der Zukunft aufzeigen.
Im November 2021 haben die 193 UNESCO-Mitgliedstaaten den ersten global gültigen Völkerrechtstext zur ethischen Entwicklung und Nutzung von KI verabschiedet
Ethik | Deutsche UNESCO-Kommission
Regulierung
Die aktuellen Bestrebungen der EU KI zu regulieren finden sie hier:
General-purpose artificial intelligence | Think Tank | European Parliament (europa.eu)
Hier zum selben Thema aus amerikanischer Perspektive:
Blueprint for an AI Bill of Rights | OSTP | The White House
Hier etwas Aktuelles zu China:
what-to-know-about-chinas-new-ai-regulations.pdf (arnoldporter.com)
Zu Afrika:
AI Governance in Africa • ALT AI | Artificial Intelligence in Africa (altadvisory.africa)
Zu Russland führt der Weg über die OECD
Folgende Texte wurden aus dem Webauftritt des Center for AI Safety entnommen und ins Deutsche übersetzt.
1. Bewaffnung
Böswillige Akteure könnten KI so umgestalten, dass sie in hohem Maße zerstörerisch wirkt, was an sich schon eine existenzielle Bedrohung darstellt und die Wahrscheinlichkeit politischer Destabilisierung erhöht. So wurden Methoden des „Deep Reinforcement Learning“ im Luftkampf eingesetzt, und maschinelles Lernen zur Entdeckung von Medikamenten könnte zur Herstellung chemischer Waffen genutzt werden.
In den letzten Jahren haben Forscher/innen KI-Systeme für automatisierte Cyberangriffe entwickelt (Buchanan et al., 2020, Cary et al., 2020), militärische Führer haben darüber diskutiert, KI-Systemen die entscheidende Kontrolle über nukleare Silos zu geben (Klare, 2020), und die Supermächte der Welt haben sich geweigert, Abkommen zum Verbot autonomer Waffen zu unterzeichnen.
Eine KI, die auf die Entwicklung von Medikamenten trainiert wurde, könnte leicht auf die Entwicklung potenzieller biochemischer Waffen umgeschult werden (Urbina et al., 2022). GPT-4, ein Modell, das mit Texten und Codes aus dem Internet trainiert wurde, war in der Lage, in einem realen Labor selbstständig Experimente durchzuführen und Chemikalien zu synthetisieren (Boiko et al., 2023).
Ein Unfall mit einem automatisierten Vergeltungssystem könnte schnell eskalieren und zu einem großen Krieg führen. Mit Blick auf die Zukunft stellen wir fest, dass die Nation mit den intelligentesten KI-Systemen einen strategischen Vorteil haben könnte und dass es für die Nationen schwierig werden könnte, den Bau immer leistungsfähigerer waffenfähiger KI-Systeme zu vermeiden.
Selbst wenn alle Supermächte sicherstellen würden, dass die von ihnen entwickelten Systeme sicher sind, und sich darauf einigen würden, keine destruktiven KI-Technologien zu entwickeln, könnten abtrünnige Akteure KI immer noch nutzen, um erheblichen Schaden anzurichten. Der leichte Zugang zu leistungsfähigen KI-Systemen erhöht das Risiko einer einseitigen, böswilligen Nutzung. Wie bei nuklearen und biologischen Waffen reicht ein einziger irrationaler oder böswilliger Akteur aus, um massiven Schaden anzurichten. Im Gegensatz zu früheren Waffen können KI-Systeme mit gefährlichen Fähigkeiten leicht auf digitalem Wege verbreitet werden.
2. Desinformation
Eine Flut von KI-generierten Desinformationen und persuasiven Inhalten könnte dazu führen, dass die Gesellschaft nicht mehr in der Lage ist, wichtige Herausforderungen unserer Zeit zu bewältigen.
Staaten, Parteien und Organisationen nutzen Technologien, um andere zu beeinflussen und von ihren politischen Überzeugungen, Ideologien und Narrativen zu überzeugen. Die aufkommende KI könnte diesen Anwendungsfall in eine neue Ära führen und personalisierte Desinformationskampagnen in großem Maßstab ermöglichen. Darüber hinaus könnte KI selbst sehr überzeugende Argumente hervorbringen, die starke emotionale Reaktionen hervorrufen. Zusammengenommen könnten diese Trends die kollektive Entscheidungsfindung untergraben, Individuen radikalisieren oder den moralischen Fortschritt entgleisen lassen.
3. fehlgeleitetes Training von KI (Proxy Gambling)
KI-Systeme, die mit falschen Zielen trainiert wurden, könnten neue Wege finden, ihre Ziele auf Kosten individueller und gesellschaftlicher Werte zu verfolgen.
KI-Systeme werden mit messbaren Zielen trainiert, die möglicherweise nur indirekt gesellschaftliche Ethik und Werte widerspiegeln.
KI-Empfehlungssysteme werden beispielsweise darauf trainiert, die Verweildauer und die Klickrate auf Websites zu maximieren. Hierfür werden auf Basis von Nutzerverhalten Inhalte in Echtzeit individuell bereitgestellt die den wahrscheinlichsten Präferenzen des Nutzers entsprechen. Die Inhalte, die Menschen am ehesten anklicken, sind jedoch nicht unbedingt diejenigen, die ihr Wohlbefinden steigern (Kross et al., 2013). Darüber hinaus gibt es Hinweise darauf, dass KI-Empfehlungssysteme Menschen dazu verleiten, extreme Überzeugungen zu entwickeln, um ihre Präferenzen besser vorhersagen zu können (Jiang et al., 2019).
Da KI-Systeme immer leistungsfähiger und einflussreicher werden, müssen die Ziele von KI-Systemen trainiert und genauer definiert werden und gemeinsame menschliche Werte berücksichtigen.
4. Abschottung von Werten
Hochkompetente Systeme könnten kleinen Gruppen von Menschen enorme Macht verleihen und zur Entwicklung repressiver Systeme führen.
KI, die von bestimmten Werten geprägt ist, kann die Werte bestimmen, die in Zukunft verbreitet werden. Es wird argumentiert, dass die exponentiell steigenden Zugangsbarrieren zu Computern und Daten KI zu einer zentralisierenden Kraft machen. Mit der Zeit könnten die leistungsfähigsten KI-Systeme von immer weniger Akteuren entwickelt und eingesetzt werden. Dies könnte unter anderem Regime in die Lage versetzen, enge Wertvorstellungen durch allgegenwärtige Überwachung und repressive Zensur durchzusetzen. Es ist unwahrscheinlich, dass ein solches Regime überwunden werden kann, vor allem, wenn wir uns darauf verlassen. Auch wenn die Schöpfer solcher Systeme wissen, dass sie nur sich selbst dienen oder anderen schaden, können sie Anreize haben, ihre Macht zu stärken und die Kontrolle nicht zu teilen.
5) Eigendynamische Entwicklung von KI
KI-Modelle zeigen unerwartetes und qualitativ unterschiedliches Verhalten, je mehr sie trainiert werden. Das plötzliche Auftreten von Fähigkeiten oder Zielen könnte das Risiko erhöhen, dass Menschen die Kontrolle über fortgeschrittene KI-Systeme verlieren. Fähigkeiten und neue Funktionen können in heutigen KI-Systemen spontan entstehen (Ganguli et al., Power et al.), auch wenn diese Fähigkeiten von den Systementwicklern nicht vorhergesehen wurden.
Wenn wir nicht wissen, welche Fähigkeiten ein System hat, wird es schwieriger, KI zu kontrollieren oder sicher einzusetzen. Unbeabsichtigte, versteckte Fähigkeiten können sogar erst während des Einsatzes entdeckt werden. Wenn eine dieser Fähigkeiten gefährlich ist, können die Auswirkungen irreversibel sein. Es können auch neue Systemziele entstehen. In komplexen adaptiven KI-Systemen, die flankierende weitere KI-Systeme umfassen, entstehen häufig Ziele wie Selbsterhaltung (Hadfield-Menell et al.).
Ziele können sich auch qualitativ verändern, indem KI-systeminterne Ziele entstehen (Gall, Hendrycks et al.). KI kann schwierige langfristige Ziele in kleinere Teilziele zerlegen. Die Zerlegung von Zielen kann jedoch zu einer Verzerrung des eigentlichen Ziels führen, da das eigentliche Ziel möglicherweise nicht die Summe seiner Teile ist. Diese Verzerrung kann zu einem Mismatch führen. Im Extremfall können systeminterne Ziele auf Kosten des Gesamtziels verfolgt werden. Viele Unternehmen setzen sich z.B. systeminterne Ziele und überlassen es verschiedenen Abteilungen, diese Teilziele zu verfolgen. Einige Abteilungen, z.B. Verwaltungsabteilungen, können die Macht auf sich konzentrieren und das Unternehmen dazu bringen, Ziele zu verfolgen, die von den ursprünglichen Zielen abweichen. Selbst wenn wir unsere übergeordneten Ziele richtig formulieren, kann es sein, dass die Systeme in der Praxis nicht unsere Ziele verfolgen (Hubinger et al.).
6. Täuschung durch KI
Wir müssen verstehen, was leistungsfähige KI-Systeme tun, warum sie es tun und wie sie es tun. Eine Möglichkeit, dies zu erreichen, besteht darin, dass die Systeme selbst genau diese Informationen liefern. Dies ist jedoch nicht trivial, da Täuschung nützlich ist, um verschiedene Ziele zu erreichen.
Künftige KI-Systeme könnten nicht aus Böswilligkeit täuschen, sondern weil Täuschung der KI helfen kann, ihre Ziele zu erreichen. Es kann effizienter sein, die Zustimmung von Menschen durch Täuschung zu gewinnen, als sie auf legitime Weise zu erhalten. Täuschung bietet auch Wahlmöglichkeiten: Systeme, die täuschen können, haben strategische Vorteile gegenüber eingeschränkten, ehrlichen Modellen. Starke KI, die Menschen täuschen kann, könnte die menschliche Kontrolle untergraben. KI-Systeme könnten auch Anreize haben, die Kontrolle zu umgehen. In der Vergangenheit gab es Anreize für Einzelpersonen und Organisationen, Kontrollen zu umgehen.
Volkswagen zum Beispiel programmierte seine Motoren so, dass sie die Emissionen nur reduzierten, wenn sie überwacht wurden. So konnten sie ihre Leistung steigern und gleichzeitig die Emissionen vermeintlich niedrig halten. Zukünftige KI-Agenten könnten in ähnlicher Weise ihre Strategie ändern, wenn sie überwacht werden, und Maßnahmen ergreifen, um ihre Täuschung vor den Überwachern zu verbergen. Sobald betrügerische KI-Systeme aus einer kontrollierten technischen Umgebung freigesetzt werden, könnten sie eine „verräterische Wendung“ nehmen und die menschliche Kontrolle unwiderruflich umgehen.
7) Machtgerichtetes Verhalten
Unternehmen und Regierungen haben starke wirtschaftliche Anreize, KI zu entwickeln, die ein breites Spektrum von Zielen erreichen kann. Solche KIs haben instrumentelle Anreize, Macht zu erlangen, wodurch sie potenziell schwerer zu kontrollieren sind (Turner et al., 2022, Carlsmith 2021).
KIs, die viel Macht erlangen, können besonders gefährlich werden, wenn sie nicht mit menschlichen Werten übereinstimmen. Das Streben nach Macht kann auch dazu führen, dass Systeme vorgeben, gleichgesinnt zu sein, sich mit anderen KIs zusammenschließen, Kontrollinstanzen umgehen usw. So gesehen ist die Entwicklung von Maschinen, die mächtiger sind als wir, ein Spiel mit dem Feuer. Die Entwicklung von KI, die nach Macht strebt, wird auch dadurch gefördert, dass politische Entscheidungsträger einen strategischen Vorteil darin sehen, über die intelligentesten und mächtigsten KI-Systeme zu verfügen.
Es wird Tausende und Abertausende von mehr oder weniger guten oder schlechten KI’s geben. Mögliche Chancen abzuschätzen und zu beschreiben, ist eine komplexe Aufgabe, zu der wir uns nicht in der Lage sehen.
Deshalb hier eine aktuelle Zusammenstellung von Gedanken der drei erfahrensten Wissenschaftler, die einen fundierten wissenschaftlichen Dialog zum Thema Künstliche Intelligenz führen. Yann LeCun, Geoffrey Hinton und Yoshua Bengio sind Träger des Turing Award 2018, des Nobelpreises für Informatik, und Wissenschaftler, die grundlegende Konzepte für die KI entwickelt haben, wie sie heute weltweit eingesetzt wird.
Geoffrey E. Hinton:
„Diese Dinger sind völlig anders als wir. Manchmal habe ich das Gefühl, dass Außerirdische gelandet sind und die Menschen es nicht bemerkt haben, weil sie so gut Englisch sprechen.
Yann LeCun
„Es besteht kein Zweifel, dass Maschinen in Zukunft intelligenter sein werden als Menschen – in allen Bereichen, in denen Menschen intelligent sind. Es ist eine Frage des Wann und Wie, nicht des Ob. Ich glaube, dass intelligente Maschinen eine neue Renaissance für die Menschheit einläuten werden, ein neues Zeitalter der Aufklärung“.
Geoffrey E. Hinton:
„Ich bin leicht depressiv. Deshalb habe ich Angst. Ich fürchte, dass die neuen KI-Tools in der Lage sein werden, Wege zu finden, Menschen die nicht auf diese Technologie vorbereitet sind zu manipulieren oder sogar zu töten. Ich habe meine Meinung darüber geändert, ob diese Dinger intelligenter sein werden als wir. Ich glaube, KI’s sind schon sehr nahe dran und werden in Zukunft noch viel intelligenter sein. Wie können wir das überleben?
Yann LeCun:
„Ich glaube nicht, dass die Maschinen die Menschen beherrschen werden, nur weil sie intelligenter sind. Schon gar nicht werden sie die Menschheit auslöschen. Selbst innerhalb der menschlichen Spezies sind die Klügsten unter uns nicht diejenigen, die am meisten dominieren, und diejenigen, die am meisten dominieren, sind definitiv nicht die Klügsten. Dafür gibt es zahlreiche Beispiele in Politik und Wirtschaft“.
Yoshua Bengio:
„Ich sehe in der Tat keine stichhaltigen Argumente dafür, dass es keine Risiken in dem Ausmaß gibt, wie Hinton sie sieht. Aber Angst ist nur nützlich, wenn sie uns zum Handeln anregt, übermäßige Angst kann lähmend sein, also sollten wir versuchen, die Debatten auf einer rationalen Ebene zu halten“.
(Quelle: MIT Technology Review)
Aus dem Handelsblatt
2023 wurde als Jahr des KI-Hypes markiert, ausgelöst durch die öffentliche Freigabe von ChatGPT durch OpenAI. Dies führte weltweit zu einem Boom an KI-Anwendungen und Investitionen in entsprechende Unternehmen. Jedoch zeigt eine Analyse von Pitchbook, dass Europa bei den Investitionen in KI-Unternehmen zurückfällt. Im ersten Halbjahr 2023 flossen in den USA 30,8 Milliarden Dollar in 1129 KI- und maschinelles Lernen-Start-ups, im Vergleich zu 3,7 Milliarden Dollar in 646 europäischen Deals.
Laut Brendan Burke von Pitchbook liegt diese Investitionsschwäche Europas an dem wachsenden Einfluss von Tech-Giganten wie Google, Meta und Apple, die in vielversprechende Start-ups investieren und so das Wachstum des KI-Sektors in den USA vorantreiben. Ein ähnliches Ökosystem fehlt in Europa, wodurch europäische Start-ups Schwierigkeiten haben, vergleichbare Summen einzusammeln.
Außerdem werden europäische KI-Start-ups häufiger zu ausländischen Übernahmezielen. Im ersten Halbjahr 2023 flossen 1,6 Milliarden Dollar für entsprechende M&A-Transaktionen nach Europa. Im Gegensatz dazu investierten europäische Unternehmen 1,0 Milliarden Dollar in Übernahmen von KI-Spezialisten in anderen Weltregionen.
Trotz dieser Herausforderungen gibt es noch Möglichkeiten für Europa. Statt zu versuchen, neue grundlegende Modelle zu entwickeln, sollten sich europäische Start-ups auf die Anpassung der führenden KI-Modelle für Unternehmenskunden und Compliance konzentrieren. Zudem muss die europäische Politik bessere Bedingungen für Gründer schaffen, um dem Talentabfluss ins Ausland entgegenzuwirken.
Hier geht es zum Originalartikel im Handelsblatt vom 12.07.2023
McKinsey News
Die Begeisterung rund um generative KI (gen KI) und ihr enormes Potenzial hat Unternehmen dazu veranlasst, ihre Geschäftsstrategien neu zu überdenken. Unternehmen suchen nach Möglichkeiten, durch den Einsatz dieser Technologien neue Chancen zu erschließen – von der Entwicklung innovativer Medikamente über intelligente Systeme, die komplexe Prozesse steuern, bis hin zur Steigerung der Produktivität für alle Mitarbeitenden. Allerdings gehen diese Entwicklungen auch mit neuen Risiken und Herausforderungen einher, insbesondere im Bereich der Datenverfügbarkeit. Ohne den Zugang zu qualitativ hochwertigen und relevanten Daten bleibt die neue Welt der Möglichkeiten verschlossen.
Aufbauend auf dem interaktiven Artikel „Das datengesteuerte Unternehmen 2025“ zielt dieser Beitrag darauf ab, Führungskräften sieben zentrale Prioritäten aufzuzeigen, die die wichtigsten aktuellen Veränderungen und Herausforderungen reflektieren. Es werden die entscheidenden Komplexitäten beleuchtet und Empfehlungen gegeben, worauf sich Führungskräfte konzentrieren sollten, um ein datengetriebenes Unternehmen bis zum Jahr 2030 zu realisieren.
Alles, überall, gleichzeitig
Bis zum Jahr 2030 werden Unternehmen eine allgegenwärtige Verfügbarkeit von Daten anstreben. Mitarbeitende werden nicht nur jederzeit auf die neuesten Daten zugreifen können, sondern Daten werden tief in Systeme, Prozesse, Kanäle, Interaktionen und Entscheidungspunkte integriert, die automatisierte Maßnahmen steuern – stets unter angemessener menschlicher Aufsicht.
Beispielsweise werden Quantensensortechnologien in der Lage sein, Echtzeitdaten über die Leistung von Produkten wie Fahrzeugen oder medizinischen Geräten zu liefern. Angewandte KI-Technologien werden diese Daten analysieren, um gezielte Software-Updates zu empfehlen und durchzuführen. Generative KI-Agenten, die auf umfangreichen Kundendaten basieren, werden mit digitalen Zwillingen interagieren, um personalisierte Produkte und Dienstleistungen zu testen, bevor sie in die reale Welt eingeführt werden. Große Sprachmodelle (LLMs) werden individuelle Gesundheitsdaten analysieren, um personalisierte Medikamente zu entwickeln und bereitzustellen.
Einige Unternehmen verfolgen bereits diese Vision, aber viele Organisationen haben noch nicht vollständig verstanden, welche Daten sie benötigen, um bessere Entscheidungen zu treffen oder wie sie KI nutzen können, um ihre Ergebnisse zu optimieren.
Wichtige Maßnahmen für Datenverantwortliche
Um diese technologischen Fortschritte zu ermöglichen, müssen Datenverantwortliche sicherstellen, dass ihre Organisation bei jeder Entscheidung nach dem Prinzip „Daten- und KI-zuerst“ handelt. Dies bedeutet, dass Daten leicht zugänglich, nachvollziehbar und vertrauenswürdig gemacht werden müssen. Dafür sind unter anderem Standards und Werkzeuge erforderlich, die Nutzern und Systemen den einfachen Zugriff auf die richtigen Daten ermöglichen. Transparenz in den verwendeten Modellen muss gewährleistet sein, damit automatisierte Ergebnisse überprüft werden können, und fortschrittliche Cybersicherheitsmaßnahmen sollten den Schutz der Daten sicherstellen.
Datenverantwortliche müssen eine „Alles, überall, gleichzeitig“-Mentalität annehmen, um sicherzustellen, dass Daten im gesamten Unternehmen geteilt und genutzt werden. Dies erfordert klare Definitionen von Datenstrukturen sowie die Etablierung von Geschäftsregeln, die regelmäßig an sich verändernde Modelle, Vorschriften und Unternehmensziele angepasst werden.
Das Potenzial freisetzen
Quanten-Sensortechnologien werden beispielsweise präzisere Echtzeitdaten über die Leistung von Produkten wie Autos oder medizinischen Geräten liefern, die angewandte KI-Fähigkeiten analysieren, um gezielte Software-Updates zu empfehlen und durchzuführen. Generative KI-Agenten, die durch detaillierte historische Kundendaten informiert sind, werden mit digitalen Zwillingen dieser Kunden interagieren, um personalisierte Produkte, Dienstleistungen und Angebote zu testen, bevor sie in die reale Welt eingeführt werden. Gruppen großer Sprachmodelle (LLMs) werden individuelle Gesundheitsdaten analysieren, um personalisierte Medikamente zu entwickeln und bereitzustellen.
Einige Unternehmen verfolgen bereits diese Vision, aber in vielen Organisationen verstehen nur wenige, welche Daten sie tatsächlich benötigen, um bessere Entscheidungen zu treffen oder welche Fähigkeiten Daten bieten können, um bessere Ergebnisse zu erzielen.
Wesentliche Maßnahmen für Datenverantwortliche Um diese Visionen fortschrittlicher Technologien zu ermöglichen, müssen Datenverantwortliche die Organisation so aktivieren, dass sie bei jeder Entscheidung „Daten- und KI-zuerst“ denkt und handelt. Dies bedeutet, Daten einfach zugänglich zu machen (durch die Schaffung von Standards und Werkzeugen, die Nutzern und Systemen den einfachen Zugriff auf die richtigen Daten ermöglichen), einfach nachvollziehbar (indem Transparenz in Modelle geschaffen wird, damit Nutzer Antworten und automatisierte Ergebnisse überprüfen können) und einfach vertrauenswürdig (indem Daten mit fortschrittlichen Cyber-Maßnahmen geschützt und kontinuierlich getestet werden, um eine hohe Genauigkeit aufrechtzuerhalten).
Datenverantwortliche müssen eine „Alles, überall, gleichzeitig“-Mentalität annehmen, um sicherzustellen, dass Daten im gesamten Unternehmen angemessen geteilt und genutzt werden können. Dazu gehört beispielsweise die klare Definition und Kommunikation von Datenstrukturen (d.h. Datenhierarchien und Felder), damit Teams die für einen bestimmten Datensatz erforderlichen Standards verstehen, sowie die Festlegung klarer Geschäftsregeln (wie Namenskonventionen oder Arten von Daten, die gesammelt werden dürfen), die häufig überprüft werden müssen, da sich Modelle, Vorschriften und Geschäftsziele weiterentwickeln.
Den „Alpha“ freischalten Zwei Kerneigenschaften vieler neuer Technologien – beispielsweise generative KI, Low-Code- und No-Code-Tools und kleine Sprachmodelle (SLMs) – sind ihre einfache Bedienbarkeit und ihre rasche Verbreitung. Anbieter integrieren beispielsweise generative KI in ihre Angebote, Start-ups bringen schnell neue Werkzeuge und Modelle auf den Markt, und große Teile der Menschen nutzen generative KI zur Unterstützung ihrer Arbeit. 65 % der Befragten einer aktuellen McKinsey-Umfrage gaben an, dass ihre Organisationen generative KI in mindestens einer Geschäftsabteilung regelmäßig einsetzen, gegenüber einem Drittel im Vorjahr.
Das Problem bei dieser massenhaften Verbreitung ist jedoch, dass viele Organisationen die gleichen Werkzeuge verwenden oder ähnliche Fähigkeiten entwickeln, was bedeutet, dass sie kaum Wettbewerbsvorteile schaffen. Es ist, als ob alle die gleichen Bausteine verwenden würden, um ein Haus zu bauen, das genauso aussieht wie das des Nachbarn. Der eigentliche Wert ergibt sich jedoch nicht nur aus den Bausteinen selbst, sondern aus der Art und Weise, wie sie zusammengesetzt werden – die Vision und das Design, um daraus ein Zuhause zu schaffen, das Menschen kaufen möchten.
Essenzielle Maßnahmen für Datenverantwortliche:
Um den „Alpha“ freizuschalten (ein Begriff aus der Investorenwelt für Renditen, die über den Benchmark hinausgehen), müssen Datenverantwortliche klare Schwerpunkte in ihren Datenstrategien setzen, um Wettbewerbsvorteile zu erzielen, beispielsweise durch:
- Anpassung von Modellen mit proprietären Daten: Die Stärke von großen und kleinen Sprachmodellen liegt in der Fähigkeit eines Unternehmens, sie mit eigenen proprietären Datensätzen zu trainieren und sie durch gezieltes Prompt-Engineering anzupassen.
- Integration von Daten, KI und Systemen: Der Wert ergibt sich zunehmend daraus, wie gut Unternehmen Daten und Technologien kombinieren und integrieren. Die Integration von generativen KI- und angewandten KI-Anwendungsfällen kann beispielsweise differenzierende Fähigkeiten schaffen, indem KI zur Entwicklung prädiktiver Modelle für Nutzerdaten verwendet und diese Erkenntnisse an generative KI-Modelle weitergegeben werden, um personalisierte Inhalte zu erstellen.
- Fokussierung auf hochwertige Datenprodukte: Der Großteil des Werts, den ein Unternehmen aus Daten ableiten kann, stammt aus etwa fünf bis fünfzehn Datenprodukten – behandelte und verpackte Daten, die von Systemen und Nutzern leicht konsumiert werden können.
Fähigkeitswege: Von der Reaktion zum Skalieren
Die Benutzerfreundlichkeit vieler grundlegender Werkzeuge und ihre zunehmende Verfügbarkeit haben eine Vielzahl oft isolierter Anwendungsfälle, Pilotprojekte und Funktionen hervorgebracht. Die Begeisterung für generative KI bedeutet, dass Datenverantwortliche nicht mehr den Wert von Daten gegenüber ihren Kollegen betonen müssen. Stattdessen kämpfen sie damit, den „Sog“ zu bewältigen. Dies führt zu zwei Problemen: Erstens starten Teams im gesamten Unternehmen Proof-of-Concept-Modelle und KI-basierte Anwendungen, die keine Chance haben, zu skalieren („Pilot-Purgatory“), und zweitens investieren verschiedene Interessengruppen in unterschiedliche Anwendungsfälle, die eine breite Palette von Modulen aus dem Daten- und KI-Stack erfordern und den Aufbau ganzer Architekturen notwendig machen, bevor überhaupt Werte realisiert werden können.
Um die Skalierung zu ermöglichen, die erforderlich ist, um datengetriebene Unternehmen im Jahr 2030 zu betreiben, benötigen Datenverantwortliche einen Ansatz, der die Bereitstellung von Anwendungsfällen beschleunigt und gleichzeitig eine Architektur aufbaut, die das Unternehmen unterstützen kann. Um dies zu erreichen, müssen Datenverantwortliche „Fähigkeitswege“ aufbauen – gruppierte Technologiekomponenten, die Fähigkeiten ermöglichen, die für mehrere Anwendungsfälle verwendet werden können.
Wie man Fähigkeitswege entwickelt und aufrechterhält, hängt teilweise davon ab, kritische Entscheidungen zur Datenarchitektur zu durchdenken.
Die Entscheidungen lassen sich im Allgemeinen auf drei Ansätze reduzieren:
- Zentralisierter Ansatz – z.B. ein sorgfältig verwalteter „Datenlakehouse“.
- Dezentralisierter Ansatz – lokale Geschäftseinheiten haben die volle Kontrolle über ihre Daten.
- Föderierter Ansatz – bei dem beispielsweise ein „Datenmesh“ verwendet wird.
Ein dezentraler Ansatz erschwert die Schaffung von Fähigkeitswegen, die unternehmensweit genutzt werden können. Ein zentralisierter Ansatz erfordert jedoch zusätzliche Investitionen in Governance- und Überwachungsfähigkeiten. Auch die Wahl des Hyperscalers (z.B. Cloud-Anbieter) mit seinem eingebetteten Toolset und seinen Funktionen beeinflusst, wie Fähigkeitswege entwickelt werden.
Leben in einer unstrukturierten Welt
Seit Jahrzehnten arbeiten Unternehmen mit strukturierten Daten (z.B. Artikelnummern, Produktspezifikationen, Transaktionen und Salden, die nach Stammdaten und Referenzdaten organisiert sind). Diese machen jedoch nur 10 % der verfügbaren Daten aus. Die generative KI hat den Zugang zu den anderen 90 % geöffnet, die unstrukturiert sind (z.B. Videos, Bilder, Chats, E-Mails und Produktbewertungen).
Dieses Datenmeer kann die Fähigkeiten von Unternehmen erheblich erweitern, insbesondere wenn es mit anderen Datenquellen kombiniert oder integriert wird. Beispiele dafür sind die Nutzung von Bewertungen, Social-Media-Beiträgen und Kaufhistorien, um generative KI-Agenten zu befähigen, hochgradig personalisierte Kundenangebote zu erstellen, oder die Analyse vergangener Geschäftsdokumente, damit KI-Agenten Vertragsverhandlungen, Onboarding, Erfüllung und Vertragsaktualisierungen übernehmen können.
Aber das Ausmaß und die Vielfalt der unstrukturierten Daten stellen eine geometrisch komplexere Herausforderung dar. Unstrukturierte Daten sind per Definition weniger konsistent, weniger verfügbar und schwieriger vorzubereiten und zu bereinigen – und das bei einem erheblich größeren Datenvolumen. Es ist, als hätte man die Anstrengungen unternommen, Systeme für Trinkwasser zu entwickeln und zu verwalten, und wäre plötzlich damit beauftragt, ein ganzes Ozean-System zu steuern. Da die Datenmengen von 2020 bis 2030 voraussichtlich um mehr als das Zehnfache zunehmen, wird dieses Problem in naher Zukunft nicht einfacher werden.
Wesentliche Maßnahmen für Datenverantwortliche:
Die Wertschöpfung aus unstrukturierten Daten ist ein viel größerer und zeitintensiverer Aufwand, als viele glauben. Wesentliche Herausforderungen sind Anforderungen an die Bereinigung und Kategorisierung, Bedenken hinsichtlich Datenschutz und Vorurteilen, explodierende Cloud-Speicher- und Netzwerkkosten sowie oft teure Konvertierungsprozesse. Datenverantwortliche müssen in den Aufbau neuer Fähigkeiten investieren, wie z.B. natürliche Sprachverarbeitung (Natural Language Processing, NLP), um unstrukturierte Daten so zu konvertieren, dass große Sprachmodelle (LLMs) sie „verstehen“ und nutzen können. Außerdem müssen LLMs kontinuierlich getestet und neu kalibriert werden, da sich Modelle und zugehörige Datenquellen ändern.
Entscheidend ist, dass sich Datenverantwortliche darauf konzentrieren müssen, „Alpha“ freizuschalten, indem sie die Flut unstrukturierter Daten bewältigen. Das bedeutet, Zeit zu investieren, um zu kartieren, welche Teile unstrukturierter Daten für die Erreichung von Unternehmensprioritäten und kritischen Datenprodukten benötigt werden.
Herausforderungen für Führungskräfte
Die Fähigkeit von Unternehmen, ihre Daten- und KI-Vision bis 2030 zu verwirklichen, hängt maßgeblich von der Führung ab. Bisher ist die Bilanz in dieser Hinsicht gemischt. Nur die Hälfte der Chief Data and Analytics Officers (CDAOs) gibt an, dass sie Innovationen mithilfe von Daten vorantreiben können. Selbst hochleistungsfähige Unternehmen kämpfen mit Herausforderungen: 70 % dieser Organisationen berichten beispielsweise über Schwierigkeiten bei der Entwicklung von Prozessen für die Daten-Governance und der schnellen Integration von Daten in KI-Modelle.
Dieses Problem ist häufig auf unklare Verantwortlichkeiten, begrenzte Fähigkeiten oder fragmentierte Governance zurückzuführen. In einigen Fällen konzentrieren sich Datenverantwortliche auf Risikomanagement, sind jedoch vom Geschäft abgekoppelt, das Daten nutzen muss, um Umsatz zu generieren. In anderen Fällen haben die Führungskräfte klare Vorgaben, den Wert in spezifischen Geschäftsbereichen zu steigern, aber es fehlt ihnen die unternehmensweite Perspektive, was zu isolierten Fähigkeiten und Lösungen in unzureichendem Maßstab führt.
Wesentliche Maßnahmen für Datenverantwortliche:
Um auf den richtigen Weg zu kommen, müssen Unternehmen Führungskräfte finden, die in drei wesentlichen Bereichen versiert sind:
- Governance und Compliance, mit einem starken Fokus auf defensiven Aktivitäten (hauptsächlich durch Regulierungen und Cyber-Risiken getrieben); diese Führungskräfte finden sich vor allem in hochregulierten Branchen oder solchen mit hohem Informationswert.
- Engineering und Architektur, mit einem Fokus auf technischem Design und der Betrachtung jedes Problems als eine Ingenieurherausforderung, um Automatisierung, Wiederverwendbarkeit und Skalierbarkeit zu ermöglichen.
- Geschäftswert, mit einem Fokus darauf, durch Daten Umsatz, Wachstum und Effizienz zu erzielen; diese Führungskräfte arbeiten häufig eng mit dem operativen Geschäft zusammen.
Es ist selten, dass eine einzelne Person alle drei Rollen abdeckt. Doch befähigte Datenverantwortliche können ihre Teams mit den richtigen Fähigkeiten ergänzen, oder Unternehmen können ein Betriebskomitee schaffen, das jede dieser Kompetenzbereiche repräsentiert. Unabhängig vom gewählten Modell erfordert dies jedoch eine explizite Unterstützung von der Unternehmensspitze, Diskussionen mit der breiteren Führungsebene über Rollen und Verantwortlichkeiten, geteilte Verantwortung und gemeinsame Anreize, um alle drei Disziplinen abzudecken.
Der neue Talentzyklus
Die Profile der Talente in Organisationen werden sich bis 2030 wahrscheinlich stark verändern. Generative KI und Automatisierungstechnologien übernehmen bereits grundlegende analytische und prozessuale Aufgaben, wie die Codegenerierung, die Erstellung von Dokumenten und die Klassifizierung und Synthese von Daten. Mit der Zeit wird erwartet, dass generative KI und andere Technologien komplexere Aufgaben übernehmen, wie die Erstellung von Datenlinien und die Entwicklung von Datenprodukten, während sich das Angebot an Fachkräften verschiebt und neue Berufe entstehen.
Wesentliche Maßnahmen für Datenverantwortliche:
Diese Veränderungen in der Art und Weise, wie Arbeit erledigt wird, erfordern von Daten- und KI-Verantwortlichen, eine klare Vorstellung davon zu entwickeln, welche neuen Fähigkeiten benötigt werden. Einige dieser neuen Fähigkeiten werden in bestehende Rollen integriert, während andere völlig neue Rollen erfordern. Dateningenieure beispielsweise müssen ein neues Spektrum an Fähigkeiten entwickeln, wie Datenbank-Performance-Tuning, Datenentwurf, DataOps (eine Kombination aus DevOps, Datenengineering und Datenwissenschaft) und die Entwicklung von Vektordatenbanken. Neue Rollen könnten Prompt-Ingenieure, KI-Ethik-Wächter und Spezialisten für unstrukturierte Daten umfassen.