Mit der zunehmenden Verbreitung von Künstlicher Intelligenz (KI) in Organisationen weltweit wächst das Bedürfnis von Regierungseinrichtungen, die Technologie effektiver kontrollieren zu können. Das Ziel: ein verantwortungsvoller Umgang mit generativer KI, auch als Responsible AI bekannt.
Gartner geht davon aus, dass bis zum Jahr 2026 rund die Hälfte aller Länder entsprechende Regularien, Richtlinien oder Maßnahmen durchsetzen werden. Doch welche Auswirkungen haben die Initiativen auf die Arbeit von CIOs?
Der KI-Trend verbreitet sich wie ein Lauffeuer. Mit dem zunehmenden Einsatz in Unternehmen sehen sich Regierungen weltweit in der Pflicht, einen regulatorischen Rahmen für die Verwendung der Technologie zu ziehen. Marktbeobachter halten es deshalb für sehr wahrscheinlich, dass einzelne Nationen in naher Zukunft unterschiedliche Regularien und Vorschriften ins Leben rufen werden, um den Einsatz von KI in geordnete und kontrollierbare Bahnen zu lenken. Damit sollen Bevölkerungen vor unethischen und unerwünschten Auswirkungen im Zusammenhang mit der Verwendung der Technologie geschützt werden.
Zwischen Fortschritt und Moral
Was auf den ersten Blick als rein formelle Angelegenheit erscheint, hat auf Unternehmen direkte, mitunter sogar starke Auswirkungen. Mit national unterschiedlichen Vorgaben befinden sich IT-Verantwortliche in Organisationen nämlich in der Situation, die staatlich verordneten Regularien für einen verantwortungsvollen Umgang gewissenhaft umsetzen, gleichzeitig aber auch die KI-Lösungen und Technologien von ausländischen Anbietern nach eigenen Vorstellungen implementieren und nutzen zu können. KI-Entwickler wiederum stehen vor der Herausforderung, Aspekte wie Ethik, Transparenz und Datenschutz für die unterschiedlichen Regularien einzelner Länder berücksichtigen zu müssen.
Um die Auswirkungen der staatlich verordneten Maßnahmen beurteilen zu können, gilt es zunächst, den Begriff verantwortungsvolle KI zu definieren. Dabei handelt es sich um einen Oberbegriff für Aspekte, die angemessene geschäftliche und ethische Entscheidungen bei der KI-Einführung im Zusammenhang mit dem Business eines Unternehmens betreffen. Das beinhaltet unter anderem die transparente Nutzung der Technologie, Bias in Algorithmen möglichst umfassend zu reduzieren oder Maßnahmen, um KI-Modelle gegen Untergrabung und Missbrauch zu schützen.
Aber auch der Schutz der Privatsphäre im Zusammenhang mit Kundendaten soll künftig unter den Sammelbegriff verantwortungsvolle KI fallen und wird voraussichtlich einen wichtigen Posten in den Vorstellungen von Regierungen einnehmen. Kurz: Verantwortungsvolle KI operationalisiert die organisatorischen Verantwortlichkeiten und Praktiken von Organisationen und sorgt dafür, dass eine positive und verantwortliche Entwicklung und Verwendung der Technologie sichergestellt sind.
Entwickler und Kunden im selben Boot
Die Nutzung von verantwortungsvoller Kl wird also nicht nur für Entwickler von KI-Produkten und auf KI spezialisierte Dienstleister einen entscheidenden Einfluss haben. Auch Organisationen, die diese Kl-Werkzeuge in Geschäftsprozesse einbinden und nutzen, sind direkt betroffen. Und das vermutlich schon recht bald. Gartner geht davon aus, dass das Thema verantwortungsvolle KI innerhalb der kommenden drei Jahren weltweit in der Mehrheit von Staaten greifen wird.
Es ist zudem zu erwarten, dass die Umsetzung nahezu alle KI-Anwendungen in unterschiedlichsten Branchen beeinflussen wird, Segmente, die allerdings heute schon stark reguliert sind, auch hier eine Vorreiterrolle spielen werden. Dazu gehören Branchen wie Finanzdienstleistungen, das Gesundheitswesen und natürlich Technologiefirmen aus dem KI-Umfeld. Doch auch Branchen, die heute weniger von Regularien betroffen sind, dürften mittelfristig von den Veränderungen erfasst werden. Hier wird es darum gehen, das Vertrauen von Verbrauchern zu stärken, die Akzeptanz für KI-Technologien zu erhöhen und finanzielle sowie rechtliche Risiken zu vermeiden.
Unterschiedliche Regularien erschweren KI-Einsatz
Für Organisationen bedeutet das: Sie müssen möglichst bald konkrete Maßnahmen ergreifen, um Projekte rund um generative KI zukunftssicher und rechtlich unanfechtbar zu gestalten. Dazu gehört es beispielsweise, die unterschiedlichen Compliance-Anforderungen verschiedener Regierungen zu kennen und einzubeziehen. Dafür muss ein Rahmen entwickelt werden, der das jeweils verwendete KI-Portfolio an Produkten und Dienstleistungen des Unternehmens anhand der verschiedenen Regularien der betreffenden Staaten zuordnet. Darüber hinaus ist es nötig, individuelle Praktiken für die Implementierung und Nutzung von verantwortungsvoller KI einzuführen.
In der Praxis eignen sich dazu beispielsweise regelmäßige und strukturierte Schulungen für Mitarbeiter und durch die Sensibilisierung der Belegschaft erfolgen. Aber auch die Einbindung von Stakeholdern wird künftig eine Rolle für die Umsetzung spielen. Hinzu kommt ein notwendiges Vertrauens-, Risiko- und Sicherheitsmanagement für benutzerzentrierte Lösungen, indem verantwortungsvolle KI in die Benutzererfahrung integriert wird. Schließlich führt auch kein Weg daran vorbei, KI-Dienstleister in den Prozess einzubeziehen. In der Praxis wird es zu neuen vertraglichen Vereinbarungen kommen müssen, um die Auswirkungen von Risiken durch unethisches und nicht konformes Verhalten zu minimieren.
Reputation steht auf dem Spiel
Fest steht, die Umsetzung von verantwortungsvoller KI muss schon deshalb zur Chefsache erklärt werden, weil mit den weltweit unterschiedlichen Regularien gleich mehrere Fallstricke drohen. Dazu gehören neben den finanziellen und rechtlichen Risiken auch Probleme, die durch eine schlechte Reputation für die Organisation entstehen können.