Die menschliche Komponente bei KI-Projekten – und wie Sie sie in den Griff bekommen, um ungewollte Ergebnisse zu vermeiden. Forscher gehen davon aus, dass künstliche Intelligenz (KI) künftig menschenähnliche, kognitive Fertigkeiten haben wird, oder sogar darüber hinaus. Die Frage ist nicht „ob“, sondern „wann“.
Worauf Unternehmen daher achten sollten, wenn sie die Einführung einer KI planen, hat der Software-Hersteller proALPHA zusammengefasst.
Schon heute lassen sich dank KI schnellere Ergebnisse und auch neue Erkenntnisse erzielen. Die KI lernt dabei einerseits autonom – also ohne andauernde Supervision – und andererseits adaptiv: Je nachdem, was wir ihr zeigen, wird sie andere Dinge finden und lernen.
Was durchaus positiv klingt, kann jedoch auch negative Auswirkungen haben. Ein bekanntes Beispiel dafür ist der sogenannte AMS-Algorithmus, der Arbeitssuchende in drei Klassen einteilt: in hohe, mittlere und niedrige Chancen für eine Festanstellung innerhalb der nächsten sechs Monate. Kritiker werfen diesem System unter anderem vor, bestehende gesellschaftliche Missstände „einzubetonieren“.
Das bedeutet, dass die KI Entscheidungen auf einer weltanschaulichen Grundlage trifft, die als bereits überwunden gilt. Damit berührt KI ethische Fragen, die – wenn sie nicht angemessen beachtet werden – schnell zu Problemen bis hin zu öffentlicher Kritik führen können.
Die derzeit größten technischen Herausforderungen
Der Themenkomplex KI und Ethik findet aktuell vor allem in folgenden drei Bereichen Niederschlag.
1. Bias
Das sind, vereinfacht gesagt, in Algorithmen gegossene Vorurteile und Ressentiments. Die Folgen sind etwa, dass ein KI-System bei gleicher Qualifikation für offene Stellen nur Männer oder nur Menschen mit heller Haut vorschlägt.
2. Fehlende Transparenz
Es gibt Situationen, in denen sich nicht feststellen lässt, wie Algorithmen bei bestimmten Daten-Inputs zu bestimmten Outputs kommen. Um dieses Problem in den Griff zu bekommen, arbeiten Forscher*innen am Thema „Explainable AI“.
3. Datenschutz
Dieser ist ein Gut, aber auch ein Recht, das es gerade im Zusammenhang mit KI zu schützen gilt. Helfen sollen hier technische Lösungen wie Anonymisierung oder Regulierungsansätze.
So lassen sich ethisch bedenkliche Ergebnisse verhindern
Um das Risiko zu minimieren, dass eine KI-Lösung moralisch unerwünschte Ergebnisse liefert, können Unternehmen drei einfache Ansätze verfolgen.
1. Aufklärung betreiben
Es braucht ein Bewusstsein und Verständnis für diese Problematik. Das ebnet auch den Weg für einen strategischen Ansatz, wenn es um den Einsatz von KI geht. Außerdem verhindert es, dass KI erst blind implementiert wird und dann später Feuer gelöscht werden müssen.
2. Standpunkt beziehen
Es muss eine vom Management getragene Erklärung geben, – eine Art Manifest – wie das Unternehmen zu Ethik und KI steht und was die Grundbedingungen abseits von Gesetzen sind, zu denen es sich verpflichtet fühlt.
3. Prozesse aufsetzen
Es sind Abläufe zur systematischen, regelmäßigen Überprüfung des Risikopotenzials der KI-Anwendungen notwendig. Diese reichen von der Konzeption über die Planung und Entwicklung bis hin zur Nutzung.
So plant der industrielle Mittelstand KI-Lösungen
Sind die Grundlagen in Sachen KI und Ethik geschaffen, geht es an die konkrete Planung. Hier steht die Abstimmung mit der Unternehmensstrategie ganz oben. Die entscheidende Frage lautet: Wie passt KI in unsere Organisation und wie kann sie bei der Erreichung unserer Ziele helfen?
Die Planung umfasst nicht nur technische Aspekte: Gleich wichtig sind sowohl der unternehmerische, als auch der menschliche Aspekt. Letzterer thematisiert die Auswirkungen von KI-Entscheidungen auf die Nutzer*innen.
In einem weiteren Schritt braucht es eine gute Roadmap. In der Praxis hat sich gezeigt, dass Unternehmen idealerweise mit Quick-Wins beginnen sollten – und zwar dort, wo es genügend Daten in ausreichender Qualität gibt und Menschen aus diesen Daten ohne großen Aufwand bereits nützliche Schlüsse ziehen konnten.
Last but not least sind in der Umsetzung kompetente Partner nötig, die dafür sorgen, dass KI-Projekte nicht nur technisch-organisatorisch, sondern auch hinsichtlich ethischer Fragen erfolgreich ablaufen.
Fazit: Es grüßen öffentliche Kritik und Glaubwürdigkeitsverlust
Wer mit datengetriebener KI arbeitet, beispielsweise um produzierte Ware in „OK“ und „Ausschuss“ zu klassifizieren, stellt damit immer einen sehr starken Generalisierungsanspruch. Denn die Grundaussage hierbei lautet, dass sich auf Basis beobachteter Beispiele eine akkurate Aussage über zukünftige Ereignisse treffen lässt. Das bedeutet zwar, dass sich KI-Lösungen gut skalieren lassen. Gleichzeitig werden aber auch Fehler und ethisch bedenkliche Ergebnisse mitskaliert.
Daraus ergibt sich, dass KI-Projekte sehr gut geplant werden müssen. Das Einbetten von KI in die bestehende Organisation bedeutet einen ernstzunehmenden und langfristigen Change-Prozess, der nicht nur technische Aspekte umfasst, sondern auch so manche unternehmerische Grundüberzeugung in Frage stellt.
Unternehmen, die das Thema nicht mit der nötigen Vorsicht angehen, laufen Gefahr, über öffentliche Kritik und nachhaltigen Glaubwürdigkeitsverlust ihre ‚License to operate‘ zu verlieren. Mehrwert definiert sich heute für Kunden nicht mehr ausschließlich durch Funktionalität, sondern zunehmend auch über ethische Aspekte und die Berücksichtigung gesellschaftlicher Erwartungen.
www.proalpha.de