Spagat zwischen Agilität und Regulierung

Weswegen Unternehmen das Potenzial generativer KI immer noch ungenutzt lassen

Business GPT, GenAI, Generative KI, ChatGPT

Egal, wen man fragt: Selten herrscht in der Wirtschaft so viel Einigkeit wie im Falle der Relevanz von Generativer Künstlicher Intelligenz (GenAI). Sie wird die Zukunft aller Unternehmen maßgeblich prägen.

Umso verblüffender ein Blick auf die aktuelle Wirklichkeit: Tatsächlich zögern viele Organisationen, (Gen)AI in ihre alltäglichen Arbeitsprozesse zu implementieren. Was sind die wesentlichen Gründe für diese Diskrepanz aus theoretischer Einsicht und praktischem Zaudern?

Anzeige

Im Work Trend Index 2024 von Microsoft und Linkedin bewerten 79 Prozent der Führungskräfte in Deutschland KI als maßgeblichen Faktor für die Wettbewerbsfähigkeit. Soweit so gut. Doch die aktuelle Situation skizziert ein Bild, das mit diesen Ansprüchen nicht mithalten kann.

So offenbart eine kürzlich publizierte Bitkom-Studie, basierend auf einer repräsentativen Befragung von 603 Unternehmen, dass nur sechs Prozent der deutschen Unternehmen das Potential ihrer Daten tatsächlich ausschöpfen. 60 Prozent schöpfen die Möglichkeit der Datennutzung gar nicht oder nur in geringem Maß aus. Und Daten sind das Öl für KI. Laut einer kürzlichen Umfrage von Dataiku gelingt es aktuell nur einem Bruchteil der Unternehmen, nicht nur mit GenAI zu experimentieren, sondern diese auch im großen Stil in die alltäglichen Arbeitsprozesse zu integrieren. Vor diesem Hintergrund erscheinen die ernüchternden Ergebnisse eines von Dataiku unterstützten Reports von BARC und der Eckerson Group nicht verwunderlich. Nur drei Prozent der 238 weltweit befragten Data-Experten, darunter Führungskräfte und Anwender, geben an, dass GenAI bereits vollständig in ihre Betriebsabläufe integriert ist. Im bereits zitierten Work Trend Index fehlt 55 Prozent der Befragten eine konkrete Zielsetzung für KI in der eigenen Organisation und ein daraus hervorgehendes Konzept für die Umsetzung.

Die Kosten für das Zögern und Zaudern sind drastisch. Laut McKinsey kann sich der wirtschaftliche Mehrwert, der durch GenAI entsteht, durch eine größere Produktivität und neue bzw. angepasste Anwendungsfälle weltweit über alle Branchen hinweg auf 6,1 bis 7,9 Billionen US-Dollar jährlich belaufen. Kann – denn vorausgesetzt, die Technologie kommt auch zum Einsatz. Woran hapert es also aktuell noch in vielen Unternehmen?

Anzeige

Technologische Hürden

Wer KI integrieren will, benötigt qualitativ hochwertige Daten – das ist auch bei GenAI nicht anders. Im Laufe der Zeit haben Unternehmen Datenberge in ganz unterschiedlichen Formaten aus ganz unterschiedlichen Quellen angesammelt. Häufig fehlt eine systematische Verwaltung und ein Verständnis davon, wer welche Rechte besitzt, auf diese Daten zuzugreifen oder sie zu bearbeiten. Die bereits zitierte Bitkom-Studie illustriert, welche Konsequenzen dieses Nadelöhr für GenAI im Unternehmensalltag hat. 

Wie bei der Umsetzung “klassischer” KI-Anwendungsfälle ist auch bei GenAI Anwendungsfällen die Systematisierung von Daten nur der Ausgangspunkt. Sie besteht folglich aus einer Kombination von Datenaufbereitung/-verknüpfung, (klassischer) Modellierung, dem Einsatz eines oder mehreren Large Language Modellen (LLMs) sowie der Produktivsetzung (“Deployment”) und fortlaufenden Überwachung des Anwendungsfalls. Oft werden diese Aspekte jedoch mit jeweils eigener Technologie adressiert – mit Folgen für das Unternehmen: Die Verknüpfung verschiedener Technologien führt zu Zeitverzögerungen bei der Umsetzung, höherer Lizenz- und Instandhaltungskosten sowie Frustration bei den Beteiligten. Für Organisationen, die das Potenzial ihrer Daten durch GenAI ausschöpfen wollen, führt kein Weg daran vorbei, ihre Datensätze zu systematisieren. Die Logik sollte jedoch umgedreht werden – die Systematisierung der Datensätze folgt der Priorisierung von KI-Anwendungsfälle. Ansonsten sind Organisationen auf Jahre nur mit der Datenqualität beschäftigt, ohne auch nur einen einzigen Anwendungsfall umgesetzt zu haben. Darüber hinaus ist die Nutzung einer Plattform sinnvoll, die alle Aspekte der Umsetzung eines (Gen)AI Anwendungsfalls abdeckt.  

Wirtschaftliche Hürden

Was kostet (Generative)KI? Keine triviale Frage. Im Gegensatz zu “traditionellen” KI-Anwendungsfällen, bei denen der Großteil an Compute-Kosten beim initialen Training der Modelle anfällt, werden die Kosten bei GenAI Anwendungsfällen vor allem nach Produktivsetzung durch die Nutzung von LLMs verursacht – unabhängig davon, ob es sich um in der eigenen Infrastruktur laufende (Open-Source) LLMs (bspw. Llama 3 vom Anbieter Meta) oder lizenzierte LLMs (bspw. GPT-4 vom Anbieter OpenAI) handelt. Man könnte sogar so weit gehen, “traditionelle” KI-Anwendungsfälle als größtenteils Capex und GenAI Anwendungsfälle als größtenteils Opex zu bezeichnen. Mit Capex werden Ausgaben für langfristige Investitionen bezeichnet, die bei traditioneller KI vor allem während der anfänglichen Modellierung und dem Training der KI-Modelle anfallen. Opex sind die laufenden Kosten für den Betrieb und die Instandhaltung eines Unternehmens, die bei GenAI vor allem nach der Einführung durch die kontinuierliche Nutzung von LLMs wie GPT-4 oder Llama 3 entstehen, da diese fortlaufend Rechenressourcen benötigen. Und im Falle von GenAI Anwendungsfällen können Opex unvorhersehbar und schnell steigen. Stellt man sich einen Pharmakonzern mit 150.000 Mitarbeitenden vor, von denen 10 Prozent im Vertrieb arbeiten und neuerdings eine GenAI unterstützte Kundenansprache nutzen, kann das allein für diesen Anwendungsfall 10.000 LLM Anfragen pro Tag bedeuten. Bei Preisen von 0.09 US-Dollar pro 1K Tokens (Kosten für Input und Output kombiniert; 1000 Tokens entsprechen ca. 750 Wörtern) für beispielsweise GPT-4 scheinen die Kosten auf den ersten Blick „einigermaßen“ beherrschbar. In diesem Fall beliefen sich diese jährlich auf ca. 200.000 US-Dollar (0.09 US-Dollar x 10.000 LLM Anfragen/Tag x 220 Arbeitstage). Dieses Szenario gilt jedoch nur für einen einzigen Anwendungsfall und bei adäquater Nutzung. Bei hunderten von GenAI Anwendungsfällen und (unbeabsichtigter) Fehlnutzung können die Kosten jedoch schnell ansteigen. Vorausgesetzt die Qualität ist für den jeweiligen Anwendungsfall vergleichbar und die nötige Infrastruktur ist verfügbar, kann die Umstellung auf ein Open-Source Modell bei einer großen Zahl von Anfragen die Kosten signifikant senken.   

Um keine bösen Überraschungen zu erleben, sollten Unternehmen sicherstellen, dass sie fortlaufend alle Kosten erfassen, die durch das Nutzen von (Gen)AI entstehen. Durch das Testen und Vergleichen verschiedener LLMs bereits vor der Produktivsetzung eines Anwendungsfalls können die Kosten im besten Fall von Beginn an in Schach gehalten werden. Ebenso sollte zentral verwaltet werden können, welche Mitarbeitenden welche (Gen)AI Anwendunsgfälle nutzen können und ab welchen Beträgen zusätzliche Freigaben erforderlich sind. Wenn Unternehmen jenseits der Kosten dann auch den Mehrwert quantifizieren, der durch (Gen)AI entsteht, verfügen Entscheider über gute Argumente, (Gen)AI auf weitere Anwendungsbereiche zu erweitern.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Kulturelle und organisatorische Hürden

Wieso haben laut der Umfrage von BARC und der Eckerson Group nur neun Prozent der Unternehmen GenAI bereits bereits im operativen Bereich eingesetzt oder vollständig in die Betriebsabläufe integriert? Jenseits der Kostenfrage fällt die Unsicherheit im Unternehmen ins Gewicht. Mitarbeitende wissen nicht, wie sich ihre tägliche Arbeit verändern wird und welchen aktiven Beitrag sie leisten können. Laut des Reports Workforce 2.0 der Unternehmensberatung Mercer sorgen sich 58 Prozent der befragten Führungskräfte, dass ihr Unternehmen nicht genug tut, um Mitarbeitende für neue Technologien zu begeistern. Zwei Drittel fürchten, dass diese implementiert werden, ohne dass Arbeitsprozesse darauf abgestimmt wurden. In der Tat werden Mitarbeitende außerhalb der Analytics & AI Expertenteams nach wie vor zu wenig bzw. zu spät in die Umsetzung von Anwendungsfällen eingebunden – mit dem Resultat, dass die neuen Erkenntnisse und Prozesse von den Mitarbeitenden in den Fachbereichen oft nicht genutzt werden. 

Besonders hilfreich ist es, wenn Datenexperten und Fachkräfte ohne IT-Expertise, die die KI in vielen Fällen schlussendlich in ihrem Arbeitsalltag nutzen, möglichst frühzeitig eng zusammenarbeiten. Darüber hinaus existieren zahlreiche (Gen)AI Anwendungsfälle, die Fachkräfte mit entsprechender Weiterbildung und Tooling eigenständig umsetzen können. So werden Mitarbeitende im großen Stil für die Technologie begeistert und deutlich mehr Anwendungsfälle umgesetzt.  

Rechtliche Hürden bzw. Risiken

GenAI Anwendungsfälle bergen eine Vielzahl rechtlicher Hürden bzw. Risiken, insbesondere wenn diese von Externen, also außerhalb des Unternehmens, genutzt werden. Ein treffendes Beispiel ist der einer nordamerikanischen Fluggesellschaft, dessen Chatbot einem Kunden fälschlicherweise einen Rabatt versprach. Die Gesellschaft verlor den Rechtsstreit und musste Schadensersatz zahlen. Dies scheint ein klassischer Fall von KI-Halluzination zu sein – das LLM übermittelt (oft mit größter Überzeugung) falsche oder teilweise falsche Informationen, die jedoch im Kontext oft logisch bzw. möglich erscheinen. Ebenso gilt die Erzeugung toxischer bzw. anstößiger Inhalte durch das LLM als Herausforderung – es drohen Haftungsklagen sowie ein herber Reputationsverlust. Neben der Erzeugung von Falschinformationen (Halluzination) und toxischer Information besteht die Gefahr, dass LLMs vertrauliche Inhalte verbreiten. Dies kann sowohl intern geschehen (beispielsweise Gehälter, die Teil der dem LLM zur Verfügung gestellten Daten für einen HR-Bot waren) als auch extern (beispielsweise Kundendaten, die einem LLM-basierten Marketing-Bot zur Verfügung stehen). Es ist also keine Überraschung, dass das Thema Generative KI auch im kürzlich verabschiedeten EU-AI Act als klassisches Beispiel eines “KI-Modells mit allgemeinem Verwendungszweck” aufgegriffen wird. 

Unternehmen müssen sicherstellen, dass ihre KI-Modelle keine falschen, toxischen oder vertraulichen Informationen generieren, insbesondere wenn die Modelle von Externen genutzt werden. Bis 2026 müssen Unternehmen entsprechende Maßnahmen implementieren, um die Risiken von KI-Halluzinationen und Datenschutzverletzungen zu minimieren. Andernfalls drohen Strafzahlungen von bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Umsatzes im vorangegangenen Geschäftsjahr.

Unternehmen müssen den Spagat zwischen Agilität und Regulierung schaffen. Neben dem Aufbau und der Einhaltung von Prozessen, ist die Sensibilisierung und Weiterbildung der Mitarbeitenden zu den Risiken und Möglichkeiten von (Gen)AI essentiell. Die vielfach vorzufindende Fragmentierung von Prozessen und unterstützender Software, beispielsweise zwischen dem Zugriff und der Verarbeitung von Daten einerseits sowie dem Training und der Überwachung von Modellen andererseits, sollte überwunden und vereinheitlicht werden. So wird die Dokumentation der gesamten Wertschöpfungskette eines (Gen)AI Anwendungsfalls nachvollziehbarer, die nötigen Ressourcen reduziert und das rechtliche Risiko minimiert. 

Harms

Maximilian

Harms

Senior Director

Dataiku

Maximilian Harms leitet das Business Transformation Advisory Team bei Dataiku. Vor seiner Zeit bei Dataiku arbeitete er für Roland Berger in Deutschland und unterstützte Kunden aus den Bereichen Life Science, Verkehr, öffentlicher Sektor und Software.
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.