In dem Zentrum für Künstliche Intelligenz (KI) in Kaiserslautern soll laut Bundesdigitalminister Volker Wissing an Kontroll- und Prüfsystemen für die neue Technologie gearbeitet werden.
«Es geht darum, dass wir am Ende KI-Prüfkriterien haben, die Vertrauen schaffen», sagte der FDP-Politiker in einem Redaktionsgespräch der Deutschen Presse-Agentur in Mainz.
Das Zentrum stärke den Standort Kaiserslautern. Dort solle es auch eine Stelle geben, die Wissenschaft und Wirtschaft, die KI praktisch anwende, noch enger zusammenbringe. «Jeder Wirtschaftsteilnehmer muss KI nutzen, um wettbewerbsfähig zu bleiben», betonte Wissing und sagte auch: «Wenn der Mensch ersetzt wird durch eine Maschine in Teilprozessen, dann müssen wir diese Maschine auch kontrollieren.»
Neben Kaiserslautern soll auch ein KI-Zentrum in Berlin entstehen. Dort werde es einen Showroom geben, in dem Bürger KI testen und ausprobieren könnten, erklärte Wissing. Das Zentrum in Kaiserslautern werde eher wirtschafts- und anwendungsorientierter sein. «Meine Idee war, das Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI) ein bisschen stärker ins Spiel zu bringen.» Das DFKI sitzt ebenfalls in Kaiserslautern.
Die Zentren werden von der Nationalen Initiative für Künstliche Intelligenz und Datenökonomie aufgebaut, die nun den kürzeren Namen «Mission KI» trägt. Finanziert wird das Ganze vom Bundesdigitalministerium, das Volumen des Gesamtprojekts liegt den Angaben zufolge bei insgesamt 32 Millionen Euro.
«Wir brauchen KI», sagte Wissing. «Wenn man sich vorstellt, dass KI nur im Ausland entwickelt wird und wir Importeure dieser Technologie werden, dann geraten wir in eine fundamentale Abhängigkeit.» Es müsse das Bestreben sein, bei solchen Schlüsseltechnologien souverän zu sein. Weil diese Technologie sich auch selbst optimiere und ihre eigenen Leistungen permanent verbessere, sei heute gar nicht absehbar, was kommendes Jahr möglich sei. «Deswegen halten wir es für falsch, dass man jetzt diese Technologie reguliert», sagte Wissing.
Es müsse darum gehen, bestimmte Anwendungsfälle, die ethisch nicht vertretbar seien, zu verbieten, sagte Wissing. Als Beispiel nannte er Social Scoring, also eine Art Bewertung sozialen Verhaltens von Menschen mit Hilfe von KI. Entwickler müssten im Rahmen einer verbindlichen Selbstverpflichtung in die Verantwortung genommen werden, dass sie Technologie so entwickeln, dass Werte wie Demokratie, Transparenz und Neutralität beachtet würden.
dpa