Foundation Models

Strategisches Handeln in unsicheren Zeit

Die Auswirkungen der KI-Regulierung auf GPT und Co. sind ungewiss. Sebastian Bluhm, Geschäftsführer der Technologie- und Strategieberatung PLAN D zeigt, wie IT-Manager mit dieser Herausforderung umgehen können.

„Sicher ist, dass nichts sicher ist.” So formulierte es einst der Schriftsteller und Kabarettist Joachim Ringelnatz. Das gilt auch für IT-Entscheider. Angesichts rasanter technologischer Entwicklungen und einer hinterherhinkenden Gesetzgebung haben strategische Entscheidungen oft eine kurze Halbwertszeit.

Anzeige

So prägen Unsicherheit und Ungewissheit das unternehmerische Handeln. Aktuelles Beispiel: Der Hype um die Fähigkeiten von Foundation Models, oft auch Large Language Models (LLM) genannt, sowie ihre geplante Regulierung durch die Europäische Union.

Kommende Rahmenbedingungen zeichnen sich ab

Noch wird in Brüssel und Straßburg um die genauen Inhalte des AI Acts gerungen. Die europäischen Institutionen stehen unter anderem vor der Herausforderung, dass sich Foundation Models nur bedingt in die im Gesetzentwurf definierten Risikokategorien einordnen lassen. Zwar handelt es sich bei generativer KI auf den ersten Blick um Systeme mit begrenztem Risiko. Tatsächlich sind die Modelle aber so vielfältig einsetzbar, dass sie ebenso in Hochrisiko-Anwendungen Verwendung finden können – und über kurz oder lang auch werden.

Das Europäische Parlament hat diese Problematik erkannt und in seiner Verhandlungsposition zum AI Act spezifische Regelungen für Foundation Models eingebracht. Hierzu zählen unter anderem die Pflicht zur Risikobewertung sowie zur Transparenz über die Trainingsdaten.

Anzeige

Die zukünftigen Rahmenbedingungen für den Einsatz generativer KI in Europa gewinnen somit an Kontur. Doch was bedeutet das für die Anbieter großer Sprachmodelle? Und was bedeutet es für IT-Entscheider, die ChatGPT (OpenAI), PaLM 2 (Google) oder LLaMa (Facebook) in ihrem Unternehmen einsetzen wollen?

Scheitern die großen Sprachmodelle an mangelnder Transparenz?

Eine aktuelle Studie des Stanford Center for Research on Foundation Models scheint erste Antworten zu geben. Die Forschenden untersuchten, ob – Stand heute – zehn der bekanntesten Sprachmodelle den geplanten Anforderungen des EU AI Act entsprechen. Dabei konnten die Modelle in zwölf Kategorien wie Datenquellen, Testing oder Dokumentation jeweils zwischen null und vier Punkten erzielen.

Das Ergebnis ist ernüchternd. Sechs der zehn betrachteten Modelle – darunter GPT-4, PaLM 2 und LLaMa, aber auch das Modell Luminous des deutschen Start-ups Aleph Alpha – erzielten weniger als die Hälfte der möglichen Punkte. Vor allem an den Anforderungen in Sachen Transparenz scheitern viele der beliebtesten Modelle.

Droht mangelnde Transparenz also zum Stolperstein für die Anbieter von Foundation Models zu werden? Erwartet uns nach Inkrafttreten des EU AI Acts ein europaweites Verbot der Systeme? Oder ein Rückbau ihrer Funktionen?

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Wir können die Zukunft nicht vorhersagen

Das ist noch nicht gesagt. Die Erfahrung der vergangenen Monate zeigt, dass es gar nicht so einfach ist, die Nutzung großer Sprachmodelle einzuschränken oder gar zu verbieten. Das gilt für viele Unternehmen, die – nach anfänglicher Skepsis aufgrund von Datenschutzbedenken – am Ende doch eingelenkt sind und ihre Nutzung inzwischen erlauben. Und es gilt für einzelne europäische Staaten. In Italien etwa wurde ChatGPT zunächst verboten, dann jedoch nach wenigen Wochen wieder erlaubt. Die umgesetzten Auflagen waren überschaubar.

Zugleich hängt die weitere Entwicklung davon ab, wie Anbieter von Foundation Models –  vor allem die amerikanischen Tech-Konzerne – auf die neuen Regeln reagieren. Werden sie sich aus Europa zurückziehen, wenn ihnen die Anforderungen zu weit gehen? Oder sind sie zu Zugeständnissen bereit? Die ehrliche Antwort lautet: Wir wissen es noch nicht.

Abwarten ist keine Option

Für Unternehmen ist diese Unsicherheit eine herausfordernde Situation. Sollten IT-Entscheider die Verabschiedung der Regulierung und die Reaktionen der Anbieter womöglich einfach abwarten, bevor sie Zeit und Geld in die Nutzung generativer KI investieren?

Wenn Sie mich fragen: Nein. Zu groß sind die Potenziale der neuen Technologie, als dass ein Unternehmen heute noch darauf verzichten könnte. Ob Fachkräftemangel oder effiziente Nutzung von Ressourcen: Die Bereiche, in denen generative KI gewinnbringend eingesetzt werden kann, sind vielfältig.

Abwarten ist also keine Option. Stattdessen sollten IT-Manager alles daran setzen, ihre unternehmerischen Spielräume zu erhalten. Es gilt eine flexible Strategie zu finden, mit der sie ihrem Unternehmen die größtmögliche Unabhängigkeit bewahren – vom Ausgang des Gesetzgebungsverfahrens genauso wie von den Entscheidungen der amerikanischen Tech-Konzerne. Auf technischer Ebene gibt es hierfür verschiedene Ansatzpunkte.

Technische Lösungen reduzieren Risiken und Abhängigkeiten

  1. Mit Frameworks wie Langchain oder Haystack schalten Sie eine Abstraktionsschicht zwischen eigene und externe Systeme. Diese ermöglicht es, das verwendete Foundation Model bei Bedarf auszutauschen, ohne den kompletten Code umschreiben zu müssen.
  2. Durch eine klare Aufgabenverteilung stellen Sie sicher, dass den eingesetzten Foundation Models eine möglichst kleine Rolle zukommt. Bei der Entwicklung eines Chatbots etwa sollte die Aufbereitung unternehmenseigenen Wissens mithilfe von Semantic Search und Information Retrieval nach Möglichkeit intern erfolgen. Externe Sprachmodelle kommen dann nur zum Einsatz, um die Antworten eloquent auszuformulieren.
  3. Durch den Einsatz verschiedener Subnetze sorgen Sie zudem für größtmögliche Datensicherheit. Die Verarbeitung personenbezogener Daten findet so in Bereichen statt, die von außen nicht erreichbar sind. Das externe Modell hat nur Zugriff auf die anonymisierten Daten im anderen Subnetz.

Muss es immer ChatGPT sein?

Zuletzt noch eine Binsenweisheit: KI ist mehr als ChatGPT. So vielfältig wie die Herausforderungen von Unternehmen, so vielfältig sind auch die potenziellen Lösungen. Wenn Sie in Ihrem Unternehmen also den Einsatz von KI planen, machen Sie sich ein möglichst breites Bild der Möglichkeiten: Welche Probleme wollen Sie lösen? Und welche Technologien eignen sich dafür?

Wenn Sie sich dann nach ausgiebiger Prüfung für den Einsatz eines Large Language Models entschieden haben, können Sie die oben beschrieben Vorkehrungen treffen, um Risiken und Abhängigkeiten weitestmöglich zu reduzieren.

Spätestens dann ist es an der Zeit, sich noch einmal das Ringelnatz-Zitat anzuschauen. Und sich vor Augen zu führen, wie es weitergeht. „Sicher ist, dass nichts sicher ist. Selbst das nicht.” Vielleicht kann es in dieser unsicheren Zeit also doch ein wenig Verlässlichkeit geben? Mit der richtigen Strategie und einem guten Partner ganz sicher!

Sebastian

Bluhm

Managing Partner

PLAN D

Sebastian ist ein Tech-Optimist, der Impulse gibt, wo strategische Vision und Data Science aufeinandertreffen. Die Entwicklung datengetriebener Geschäftsmodelle und Produkte ist sein Spezialgebiet.
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.