„AI Act“ sendet klares Signal – Künstliche Intelligenz muss sicher sein

AI Künstliche Intelligenz Sicherheit

Der TÜV-Verband hat die Einigung der EU-Mitgliedsstaaten auf eine europäische KI-Verordnung begrüßt.

„Europa sendet mit dem AI Act ein klares Signal in die Welt: Künstliche Intelligenz muss sicher sein. Die Technologie darf Menschen nicht gefährden oder benachteiligen“, sagte Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. „Die in der KI-Verordnung verankerte risikobasierte Regulierung ist ein pragmatischer Ansatz für eine komplexe Technologie.“

Anzeige

Künftig müssen KI-Anwendungen je nach Risiko, das von ihnen ausgeht, unterschiedlich hohe Anforderungen erfüllen. Ausdrücklich positiv bewertet der TÜV-Verband, dass auch besonders leistungsstarke KI-Basismodelle nicht von der Regulierung ausgenommen sind. Dazu gehört auch sogenannte „Allzweck KI“ (General Purpose AI) wie ChatGPT (GPT-4).

„Leistungsstarke Allzweck-KI-Systeme müssen in Zukunft grundlegende Sicherheits- und Transparenzanforderungen erfüllen“, sagte Bühler. Das schaffe Vertrauen für die Nutzenden und erhöhe die Rechtssicherheit für professionelle Anwender, die auf Basis solcher General Purpose AI eigene innovative KI-Anwendungen entwickeln. Bühler: „Die Europäische Union ist mit der Einigung auf den AI Act der erste Wirtschaftsraum der Welt, der ein Ökosystem für sichere und vertrauenswürdige KI schafft.“

Bekenntnis zum risikobasierten Ansatz

Der jetzt verabschiedete AI Act sieht vor, KI-Anwendungen in vier Risikoklassen einzuteilen. Je nach Gefährdung müssen die Anbieter unterschiedliche Vorgaben erfüllen. „Die große Mehrheit der KI-Anwendungen wird als ‚low risk‘ eingestuft, für die keinerlei Anforderungen gelten“, betonte Bühler. KI-Systeme mit einem nicht akzeptablen Risiko („Unacceptable Risk“) wie Social Scoring Systeme werden dagegen komplett verboten. KI-Systeme mit einem „begrenzten Risiko“ („Limited Risk“) wie einfache Chatbots müssen bestimmte Transparenz- und Kennzeichnungspflichten erfüllen. Für KI-Anwendungen mit einem „hohem Risiko“ („High Risk“), zum Beispiel in kritischen Infrastrukturen, Bewertungssysteme im Personalwesen oder für die Beurteilung der Kreditwürdigkeit, gelten strengere Sicherheitsanforderungen. Dazu zählen die Anforderungen in Bezug auf Nachvollziehbarkeit, Risikomanagement oder Cybersecurity.

Anzeige

Aus Sicht des TÜV-Verbands muss die Umsetzung des AI Acts auf nationaler und europäischer Ebene ab jetzt intensiv vorbereitet werden. „Für die Risikoeinstufung von KI-Anwendungen und die entsprechenden Sicherheitsprüfungen müssen Prüf- und Testverfahren entwickelt werden“, sagte Bühler. Grundlage dafür sind Normen, Standards und allgemeingültige Qualitätskriterien.

www.tuev-verband.de

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.