Richtlinien und Verfahren einführen

Drei Strategien für den Erfolg von GenAI-Projekten

KI, GenAI

Wohl keine andere Technologie ist in so kurzer Zeit zur Schlüsseltechnologie geworden wie Künstliche Intelligenz (KI) und darauf basierende Anwendungen. Seit Ende 2022 ist der Markt exponentiell gewachsen.

IDC erwartet, dass die weltweiten Ausgaben für KI-Lösungen bis 2027 auf über 500 Milliarden Dollar ansteigen werden. Verantwortlich ist dafür unter anderem die Veröffentlichung von ChatGPT, einer auf großen Sprachmodellen basierenden generativen KI. Parallel wächst das Bewusstsein für die Risiken, die mit dem unkontrollierten Einsatz von GenAI verbunden sind. Unternehmen stehen vor der Herausforderung, vertrauenswürdige Partner und Lösungen in dieser schnell aufkommenden Landschaft zu finden.

Anzeige

Verschlafen deutsche Unternehmen KI-Trend?

IT-Trends sind bekanntermaßen schwer vorherzusagen. Im Fall generativer KI (GenAI) sind sich jedoch alle Analysten einig: KI und besonders GenAI sind Schlüsseltechnologien für den Erfolg von Unternehmen. Und dennoch haben laut einer aktuellen eco-YouGov-Umfrage derzeit 33 % der deutschen Unternehmen weder KI-Technologie im Einsatz noch planen sie entsprechende Projekte. Nur 8 %der befragten Unternehmen verfügen über eine umfassende KI-Strategie. Ein Viertel der an der Umfrage beteiligten Firmen evaluiert den Einsatz der Technologie noch. 

Rechtslücken, mangelnde Erfahrung und Unklarheit über potenzielle Gefährdungen lassen Führungskräfte auch in großen Unternehmen KI-Initiativen pausieren, obwohl sie sich der Notwendigkeit bewusst sind. 

Warum GenAI-Projekte auf Eis liegen

Es gibt wesentliche Gründe, warum Verantwortliche in Unternehmen KI- und speziell GenAI-Projekte einfrieren. Im Folgenden sind die drei wichtigsten Gründe und entsprechende Maßnahmen zur Minderung des Risikos aufgeführt.

1. Urheberrecht und rechtliche Risiken

Risiko: GenAI-Modelle benötigen viele unterschiedliche Daten für ihr Training. Das kann u. U. urheberrechtlich geschützte Werke einschließen. Nutzen Organisationen die Ergebnisse solcher Modelle, können sie unwissentlich in rechtliche Schwierigkeiten geraten.

Strategie: Unternehmen müssen sich in Verträgen mit Anbietern von GenAI rechtlich absichern, dass für das Training eines Modells keine lizenzierten Inhalte verwendet werden. Organisationen sollten sich im Vorfeld vergewissern, dass die von einer KI generierten Inhalte nicht gegen geltende Urheberrechte verstoßen. Dazu sind möglicherweise umfangreiche Überprüfungen durchzuführen (Due Diligence). Beim Einsatz eigener GenAI-Modelle sollten nur Daten verwendet werden, die frei von Rechten Dritter sind oder an denen ein Unternehmen auch selbst die Rechte hat.

2. Offenlegung sensibler Informationen

Risiko: GenAI-Anwendungen können versehentlich sensible Informationen preisgeben, z. B. auch geistiges Eigentum (IP). 

Strategie: Unternehmen müssen Richtlinien zum verantwortungsvollen Umgang mit GenAI-Werkzeugen und regelmäßige Mitarbeiterschulungen einführen. Technisch können Lösungen zur Verhinderung von Datenverlusten (DLP) mit feingranularen Kontrollen helfen, das Risiko zu minimieren. Die Klassifizierung von Daten sowie Rollen- und Berechtigungskonzepte bzw. Strenge Sicherheitsrichtlinien regeln Zugang und Zugriff auf sensible Informationen. Zudem müssen dem KI-Modell strenge Grenzen im Umgang mit Benutzereingaben gesetzt werden.

3. Datenschutzverletzungen

Risiko: Im Gegensatz zur Offenlegung können (auch unwissentlich) sensible Informationen in ein GenAI-Modell eingeben werden. Wenn es sich dabei um regulierte personenbezogene Daten handelt, besteht die Gefahr, dass das Unternehmen gegen Gesetze wie die DSGVO verstößt. Anbieter von GenAI-Plattformen wie OpenAI erklären explizit in den Datenschutzrichtlinien, dass solche Eingaben genutzt werden können, um Dienste bereitzustellen, zu analysieren und zu verbessern oder um neue Programme und Dienste zu entwickeln. Diese Informationen können ohne weitere Benachrichtigung an Dritte, wie z. B. Verkäufer und Dienstleister weitergegeben werden.

Strategie: Um das Risiko zu minimieren, müssen Unternehmen wasserdichte Benutzerrichtlinien und -verfahren in Verbindung mit kontinuierlichen Mitarbeiterschulungen entwickeln. Am besten ist es, die Nutzung von öffentlich verfügbaren Modellen gänzlich zu unterbinden und nur mit streng überprüften, vertraglich einwandfreien unternehmenstauglichen GenAI-Anbietern zusammenzuarbeiten.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Vertrauen ist das A und O

Auch wenn deutsche Firmen Gefahr laufen, ins Hintertreffen zu geraten, wenn sie GenAI nicht so schnell wie möglich einführen, ist Vorsicht geraten. Schnelligkeit ist wichtig, aber nicht um jeden Preis. Letztendlich sollte ein Unternehmen GenAI erst dann einführen, wenn es die nötigen Richtlinien aufgestellt hat. Verantwortliche müssen sich der Risiken bewusst sein und sicherstellen, dass die Technologie verantwortungsvoll und gesetzeskonform eingesetzt wird.

KI-gestütze Arbeit kann laut der Prognose des eco Branchenmonitor 2023 eine Produktivitätssteigerung um jährlich bis zu 1,4 %bewirken. Die Technologie wird als potenziell transformativ für so unterschiedliche Anwendungsfälle wie Marketing, Softwareentwicklung und Kundenservice angepriesen. Unternehmen lernen allerdings noch, wie sie die Technologie am effektivsten einsetzen können. So kann GenAI bereits heute beispielsweise die Produktivität von ITOps-Teams in drei Schlüsselbereichen steigern:

  • GenAI kann Sicherheits- oder Netzwerkbetriebszentren (Security/ Network Operation Center, SOC/NOC) helfen, Diagnoseinformationen zu sammeln und regelmäßige Status-Updates für die Beteiligten zu erstellen. 
  • Bei Störfällen unterstützt GenAI die Einsatzkräfte bei der Erstellung von Workflows für Statusaktualisierungen und leitet Vorfälle mit hoher Priorität an die richtigen Experten weiter.
  • GenAI kann helfen, Postmortem-Berichte zu erstellen – letztere sind entscheidend für die kontinuierliche Verbesserung.

Fazit

Entscheidend ist es, Richtlinien und Verfahren einzuführen und die Technologiepartner, mit denen Unternehmen zusammenarbeiten werden, genau zu prüfen. Der Weg wird zunehmend zu spezialisierten Anbietern führen, die mit den richtigen Leitplanken helfen, Urheberrechte, Datenverluste, Compliance und andere Risiken wie Halluzinationen zu minimieren. 

Mandi-Wall

Mandi

Walls

PagerDuty

DevOps-Advocate

Mandi Walls ist DevOps-Advocate bei PagerDuty. Dort unterstützt sie Technologieunternehmen dabei, ihre Effizienz durch moderne IT-Praktiken bei ungeplanten IT-Vorfälle zu steigern.
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.