Generative Künstliche Intelligenz (GenAI) birgt enormes Potenzial, stellt Unternehmen jedoch vor einen Balanceakt zwischen Vertrauen und Kontrolle. Um Innovation zu fördern, Risiken zu minimieren und Mehrwert effizient zu realisieren, benötigen Organisationen klare Strukturen, standardisierte Prozesse und Transparenz – denn ohne diese Grundlage bleibt Vertrauen in Mitarbeitende oft bloße Theorie.
Ein altmodisches Sprichwort lautet: „Vertrauen ist gut, Kontrolle ist besser.“ Moderne Führungskräfte haben diese trügerische Ideologie vergangener Tage längst entzaubert. Vertrauen zählt längst als Kernelement jeder gesunden Unternehmenskultur. Wer aber (Generative) Künstliche Intelligenz (KI) in die Arbeitsprozesse einer Organisationen erfolgreich einführen und skalieren möchte, kommt an dem Thema „Kontrolle“ nicht vorbei. Die große Kunst ist, die richtige Balance zwischen Kontrolle und Freiraum zu finden.
Wer denkt, dass Kontrolle per Definition zu Mikromanagement führt, der irrt gewaltig. In Sachen GenAI ist – die richtige Herangehensweise vorausgesetzt – sogar das Gegenteil der Fall: Erst unter kontrollierten Rahmenbedingungen können einzelne Teammitglieder, Projekte anstoßen und vorantreiben. Denn was nützt der Wille, wenn das Werkzeug nichts taugt? Und wie effizient ist es, wenn Mitarbeitende in autarken Parallelwelten alle an mehr oder weniger ähnlichen Projekten arbeiten, ohne Synergien zu nutzen? Der einzige Ausweg, um solch KI-Wildwuchs effektiv zu verhindern und Mitarbeitenden die bestmöglichen Tools an die Hand zu geben, ist eine zentrale, standardisierte Verwaltung.
Doch der Aufholbedarf ist in diesem Fall immens: So zeigt eine Umfrage von Dataiku, dass 88 Prozent der Unternehmen beispielsweise. keine speziellen Anwendungen oder Prozesse zur Verwaltung von großen Sprachmodellen (LLMs) besitzen. In diesen Organisationen mögen zwar viele Mitarbeitende auf eigene Faust mit generativer KI experimentieren, doch es droht ein Flickenteppich an vielzähligen Lösungen mit drastischen Folgen hinsichtlich Compliance und fehlender Kostenübersicht. Vertrauen in Mitarbeitende erfordert daher von den Verantwortlichen, dass diese die erforderliche Infrastruktur bereitstellen.
Ansonsten können Mitarbeitende kaum das in sie gesetzte Vertrauen erfüllen, zumindest wenn sie KI im Arbeitsalltag nutzen und implementieren sollen. Wie so oft im Leben gilt es, den goldenen Mittelweg zu finden. Denn GenAI effektiv in Organisationen einzuführen, ist vor allem eines: ein Balanceakt. Vier Bereiche, in denen dieser Balanceakt besonderes Gewicht genießt:
1. Innovation vs. Risiko
Einerseits drohen Organisationen, den Anschluss zu verlieren, andererseits kann die Tragweite unzureichender Kontrolle – beispielsweise die Nutzung von LLMs ohne ausreichende Kontrolle über sensible Daten, toxische Inhalte oder die Qualität der Ergebnisse – kaum hoch genug bewertet werden. Das mittlerweile weltbekannte Beispiel der Fluggesellschaft Air Canada dient hier als illustrative Warnung. Der hauseigene Chatbot bot fälschlicherweise einen Rabatt an, auf den sich der Kunde bei Buchung verlassen hatte.
Nach Klage des Passagiers kam das Gericht zum Schluss, dass die Fluggesellschaft Verantwortung für die Aussagen ihres Chatbots trägt und folglich Schadensersatz zahlen muss. So ist es keine Überraschung, dass der überwiegende Teil der GenAI Anwendungen (noch) innerhalb der Unternehmen, nicht jedoch für externe Prozesse eingesetzt wird.
2. Flexibilität vs. Standardisierung
Seit der Veröffentlichung von ChatGPT ist die Anzahl an LLMs stark gewachsen. Mittlerweile gibt es zahlreiche, sogenannte General purpose Modelle (bspw. GPT-4 von OpenAI oder LLaMA von Meta) als auch kleinere (d.h. mit weniger Parametern ausgestattete), oft für einen bestimmten Zweck (zum Beispiel für eine Sprache oder domänenspezifische Herausforderungen) optimierte Modelle (bspw. das gerade veröffentlichte und von der TU Dresden mitverantwortete Teuken-7B). Diese existieren entweder als Open-Source (mal mehr, mal weniger “open”) oder als proprietäre, lizenzbasierte Modelle.
Auch für andere kritische Komponenten bei Umsetzung von GenAI Anwendungsfällen besteht eine große Auswahl. So gibt es verschiedenste Anbieter von sogenannten Vektordatenbasen, die den einfachen Zugriff eines LLMs auf den eigenen Daten-Schatz ermöglichen. Beide Komponenten illustrieren die nötige Flexibilität für Unternehmen, um die jeweils bestgeeignetsten Komponenten für den jeweiligen GenAI Anwendungsfall einzusetzen und bei Bedarf auszutauschen.
Gleichzeitig sollte ein Anwendungsfall nur aufgrund der Nutzung eines geeigneteren LLMs nicht nochmals von Grund auf neu konzipiert werden – zumal wenn dieser unternehmensweit skaliert wurde. Ebenso braucht es Transparenz darüber, welche Komponenten (bspw. welches LLM) wo im Unternehmen zu welchem Zweck eingesetzt werden – und das für das gesamte Portfolio an GenAI Anwendungsfällen (ob im Marketing, in der Produktion oder bei der Kundenbetreuung).
3. Breite vs. Tiefe
Nach Schätzungen der Unternehmensberatung McKinsey beläuft sich allein das Potential von GenAI Anwendungsfällen auf bis zu 9.2% des Umsatzes eines Unternehmens. In vielen Industrien stecken die größten Potentiale in den Bereichen Marketing & Vertrieb, Kundenservice, Software Engineering sowie Supply Chain/Operations. Ähnlich wie bei “klassischen” KI bzw.
Analytics Anwendungsfällen gibt es auch im GenAI Bereich viele große Hebel – komplexe Anwendungsfälle mit enormem wirtschaftlichen Potential wie bspw. “KI-Agenten”, die unter der Haube verschiedene (LLM) Modelle kombinieren – aber eben auch den “long tail” an kleineren, weniger komplexen Anwendungsfällen. Erfolgreiche Unternehmen meistern diesen Balanceakt, indem sie auch ihre Fachbereiche dazu befähigen, (in kontrolliertem Umfeld) die vielen kleineren Anwendungsfälle autonom umzusetzen.
4. Mehrwert vs. Kostenkontrolle
Das bereits beschriebene Potential von GenAI ist gewaltig. Die Realisierung dieses Potentials bedarf jedoch nicht allein einer technisch sauberen Lösung, sondern die GenAI Anwendung muss auch mehrwertstiftend genutzt werden. Was hilft der technisch aufwendigste Unternehmens-Chatbot, wenn dieser nicht oder nur zum Zeitvertreib genutzt wird? Andererseits können initiale “Spielereien” die Akzeptanz für solch neuartige Ansätze stärken.
Jedenfalls sollte der (langfristige) Mehrwert im Verhältnis zum Aufwand stehen. Neben der mehrwertstiftenden Nutzung der GenAI Anwendung ist daher auch deren verhältnismäßig aufwandsarme Umsetzung und deren Betrieb von großer Bedeutung. Im Gegensatz zu “klassischen” KI-Anwendungsfällen, bei denen ein Großteil der Compute-Kosten beim initialen Training der Modelle anfällt, sind bei GenAI Anwendungsfällen die laufenden Kosten der deutliche größere (und schwer zu antizipierende) Block.
Einmal bereitgestellt, verursacht jede neue Interaktion mit einem Chatbot nunmal neue Kosten (egal ob als Compute-Kosten für Open-Source oder als Lizenzgebühr für geschlossene LLMs) . Und wer kann schon genau die Anzahl und Komplexität aller Interaktionen vorhersagen? Daher benötigen Unternehmen Transparenz über die Mehrwerte und Kosten den GenAI Anwendungsfälle – inkl. einer proaktiven bzw. vorausschauenden Möglichkeit, bestimmte Anwendungsfälle zu beschränken oder ganz zu stoppen, bspw. durch Kostenlimits auf Nutzer, Gruppen, Anwendungsebene etc.
Fazit
Weltweit werden Organisationen in den kommenden Jahren erhebliche Ressourcen in (Generative) KI investieren. Fast die Hälfte der befragten Führungskräfte gab in der Umfrage an, mehr als eine Millionen US-Dollar binnen zwölf Monaten in GenAI-Lösungen zu investieren. Und das ist noch sehr konservativ.
Damit Organisationen bei diesem KI-Drahtseilakt die Balance behalten ist eine zentrale Infrastruktur für das Managen der Kosten, Zugriffsrechte und der zugrunde liegenden Daten unentbehrlich – ebenso wie eine effektive Lösung zur Beurteilung der Qualität der einzelnen GenAI-Lösungen und ihres ROIs. Denn Vertrauen in Mitarbeitende erfordert vor allem eines: Verantwortungsbewusstsein für die dafür erforderlichen Rahmenbedingungen bei den Entscheidern. Das eingangs zitierte Sprichwort müsste in diesem Sinne ganz symbiotisch lauten: “Kontrolle ist gut. Sie ermöglicht Vertrauen.”