Der von Experten wie Turing-Preisträger Yoshua Bengio, Apple-Gründer Steve Wozniak und Tesla-Chef Elon Musk unterzeichnete offene Briefverdeutlicht, dass eine weltweite Diskussion über die Regulierung und Ethik von KI notwendig ist. In der EU sind wir bereits sehr weit und es existieren diverse Vorstöße und Regelungen – beispielsweise dazu, dass KI keine Entscheidungen über Menschen treffen darf. Doch es gibt noch Problemfelder.
Experten auf dem Gebiet sollten über diese aktuellen Problemfelder rund um KI aufklären und als Teil der Weiterentwicklung der Technologie, ethische sowie sichere Maßnahmen diskutieren, erklärt Peter Graf, Chief Strategy Officer bei Genesys, einem Cloud-Anbieter für die Orchestrierung von Kundenerlebnissen. Peter Graf beschäftigt sich seit den frühen 90ern mit KI. Ihm ist daran gelegen, dass die breite Gesellschaft die Probleme von KI versteht: Aktuell ist KI noch voreingenommen und intransparent und kann keine Verantwortung für Entscheidungen übernehmen.
Das sind die Probleme, die reguliert werden müssen, erklärt Peter Graf in nachfolgendem Kommentar:
„ChatGPT hat einen KI-Hype ausgelöst, dabei ist künstliche Intelligenz bereits allgegenwärtig: in der automatischen Fotobearbeitung auf dem Smartphone, in Apps zur Musik- oder Texterkennung, in medizinischen Diagnosen, Finanzanalysen, der Optimierung von Lieferketten und vielen weiteren Bereichen. Auch wenn VLLMs (Very Large Language Models) KI auf eine neue Stufe heben, können wir jetzt und in der laufenden Entwicklung Maßnahmen ergreifen, die die Nutzung von KI ethisch vertretbar machen. Der Mensch muss die KI als Werkzeug kontrollieren; das Werkzeug selbst kann für das, wozu es genutzt wird, nicht verantwortlich sein.
KI ist ein Werkzeug, um das Leben der Menschen zu verbessern. Wir müssen nun bewusst auswählen, welche Entscheidungen wir der KI überlassen und dieses technologische Werkzeug in Einklang mit unseren ethischen Normen bringen. Denn Künstliche Intelligenz hat weder Intuition noch Meinung oder einen moralischen Kompass – den Teil muss der Mensch übernehmen. Daraus ergeben sich drei Arbeitsfelder: Voreingenommenheit, Intransparenz und Verantwortung.
KI lernt aus Trainingsdaten Muster kennen und wendet diese auf neue Situationen an. Wenn die Trainingsdaten verzerrt sind, kann das zum Beispiel zu Diskriminierung führen. Deshalb müssen Künstliche Intelligenzen ihre Entscheidungen erklären, damit für den Menschen Transparenz entsteht. Außerdem benötigen wir Diversität in den Trainingsdaten, um eine ethische, ausgewogene Datenbasis sicherzustellen.
Zuletzt hat eine KI kein Bewusstsein und kann keine Verantwortung übernehmen. Deshalb kam Priit Pikamäe, Generalanwalt am Europäischen Gerichtshof (EuGH), im März 2023 unter anderem zu der Einschätzung, dass eine rein automatische Datenverarbeitung für den Schufa Score und basierend darauf eine rein automatische Entscheidung über eine Kreditvergabe rechtlich unzulässig sind. Wir brauchen eine gesellschaftliche Diskussion darüber, welche Entscheidungen wir der KI überlassen wollen.
KI muss ethisch sein und dem einzelnen Menschen sowie der Gesellschaft als Werkzeug dienen. Der offene Brief spielt mit Ängsten, dabei ist der Ausblick positiver: Organisationen wie IEEE, die UN, die Europäische Kommission oder die Partnership on AI treiben die Regulierung und Entwicklung ethischer KI längst voran. Unternehmen wie Genesys verpflichten sich bereits zu einem ethischen Einsatz von KI. Was allerdings noch fehlt ist die Sensibilisierung der breiten Gesellschaft bezüglich der Nachteile ungeregelter KI, einhergehend mit der Schaffung eines Grundverständnisses ihrer Funktionsweise und der damit verbundenen Implikationen.“
Peter Graf, Chief Strategy Officer bei Genesys