Ob Diskriminierung, Desinformation oder mangelnder Datenschutz: Künstliche Intelligenz (KI) birgt zahlreiche Risiken. Die Mehrheit der Deutschen hat jedoch nur geringes oder gar kein Vertrauen darin, dass die Politik in Deutschland und Europa mögliche negative Folgen von KI durch Regulierungen begrenzen wird (68 Prozent).
Dabei haben 45 Prozent ein geringes und 23 Prozent gar kein Vertrauen. Das hat eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.001 Befragten ab 16 Jahren ergeben. „Künstliche Intelligenz kommt in medizinischen Geräten, Fahrzeugen oder anderen sicherheitskritischen Produkten zum Einsatz und beeinflusst schon heute unser Mediensystem massiv“, sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. „Unsere Gesellschaft sollte die enormen Vorteile dieser Technologie nutzen und sich gleichzeitig vor den Risiken schützen. Die Menschen müssen sich darauf verlassen können, dass KI-Anwendungen sicher sind.“ Zu diesem Zweck hat die EU die europäische KI-Verordnung (EU AI Act) verabschiedet. Ziel ist es, einen Rechtsrahmen für sichere und vertrauenswürdige KI zu schaffen. „Der AI Act stellt sicher, dass KI-Systeme nicht missbraucht werden und schützt die Grundrechte der Bürgerinnen und Bürger“, sagt Bühler. „Gleichzeitig fördert er KI-Innovationen „Made in Europe“ und schafft Vertrauen in der breiten Bevölkerung.“ Laut Umfrage hat aber bisher nur gut ein Viertel der Befragten überhaupt schon mal vom EU AI Act gehört (28 Prozent).
Aktuell befindet sich der AI Act in der entscheidenden Phase der nationalen Umsetzung. „Die Sorgen der Menschen hinsichtlich der Handlungsfähigkeit der Politik machen deutlich, dass der der europäische AI Act jetzt zügig umgesetzt werden muss – trotz der aktuellen Regierungskrise“, sagt Bühler. „Der Referentenentwurf für die deutschen Umsetzungsbestimmungen darf nicht auf Eis gelegt werden. Unternehmen und Prüforganisationen brauchen Planungs- und Rechtssicherheit. Für die Bürger muss ein hohes Schutzniveau gewährleistet und das Vertrauen in die Technologie gestärkt werden.“
Der AI Act teilt KI-Anwendungen in vier Risikoklassen mit jeweils unterschiedlichen Anforderungen ein, die in den kommenden Monaten schrittweise erfüllt werden müssen. Je höher das Risiko bei der Anwendung eingeschätzt wird, desto strenger sind die Anforderungen. Dabei reguliert er auch systemische Risiken von Allzweck-KI wie ChatGPT, vor allem durch strengere Transparenzanforderungen. In Deutschland werden intensive Vorbereitungen getroffen, um eine effektive KI-Aufsicht zu etablieren. Offen sind noch einige Fragen wie die genaue Ausgestaltung der Aufsichtsbehörden, die Auslegung von Schlüsselbegriffen wie „hohes Risiko“ eines KI-Systems nach Inverkehrbringen oder Inbetriebnahme sowie die Erarbeitung konkreter technischer Standards. Bühler: „Es gilt nun, zügig einen einheitlichen Leitmarkt für KI-Prüfungen und -Zertifizierungen zu etablieren, damit Deutschland und Europa wettbewerbsfähig bleiben.“ Die TÜV-Unternehmen stehen als Benannte Stellen für die Prüfung und Zertifizierung von KI bereit. Das im Jahr 2023 als Joint-Venture der TÜV-Unternehmen gegründete TÜV AI.Lab übersetzt die regulatorischen Anforderungen an KI in die Prüfpraxis und entwickelt quantifizierbare Konformitätskriterien und geeignete Prüfmethoden für KI.
Methodik-Hinweis: Grundlage der Angaben ist eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.001 Personen zwischen 16 und 75 Jahren. Die Umfrage wurde vom 16. bis 24. Oktober 2024 durchgeführt.
Die gestellten Fragen lauteten: „Wie groß ist Ihr Vertrauen, dass die Politik in Deutschland und Europa mögliche negative Folgen von KI-Technologien durch Gesetze und Regulierungen begrenzen wird?“ und „Haben Sie schon einmal von der europäischen KI-Verordnung (EU AI Act) gehört?“
(pd/TÜV-Verband)