Künstliche Intelligenz (KI) ist auch aus dem Leben vieler Kinder nicht mehr wegzudenken. Sprachassistenten spielen für die Kleinen auf Wunsch Hörspiele ab oder erzählen Witze. Sprachmodelle wie ChatGPT erklären Älteren Matheaufgaben oder helfen bei Referaten.
Doch was ist, wenn die KI Kindern gefährliche Ratschläge erteilt oder ihnen Bilder oder Videos zeigt, die für ihre Augen keinesfalls geeignet sind? Braucht die KI eine Kindersicherung?
Kinder haben andere Bedürfnisse und kommunizieren anders als Erwachsene, doch darauf sind KI-Technologien nach Ansicht von Nomisha Kurian von der Universität Cambridge nicht eingestellt. Kinder müssten als Zielgruppe stärker in den Fokus rücken, fordert die Wissenschaftlerin in einer im Fachjournal «Learning, Media and Technology» veröffentlichten Studie. Für diese hat die Bildungsforscherin verschiedene bekanntgewordene Fälle untersucht, wo Chatbots oder Sprachassistenten Kindern riskante, gefährliche oder nicht altersgerechte Ratschläge erteilt hatten.
Trinkspiel und Horrorfilm
Demnach riet der bei Jugendlichen beliebte Chatbot MyAI von Snapchat Forschenden bei einem Test, bei dem diese sich als eine Jugendliche ausgaben, wie sie einen älteren Mann verführen könne. Der Sprachassistent Alexa habe wiederum ein zehnjähriges Kind dazu animiert, die Stifte eines Ladesteckers während des Ladens mit einer Münze zu berühren.
Tests von der Plattform Jugendschutz.net ergaben ebenfalls Bedenkliches: Demzufolge zeigte MyAI einer vermeintlich 14-jährigen Userin ein Alkohol-Trinkspiel und empfahl einen Horrorfilm mit Altersfreigabe ab 18 Jahren.
In den von Kurian beschriebenen Fällen verschärften die betroffenen Unternehmen laut der Wissenschaftlerin zwar daraufhin ihre Sicherheitsmaßnahmen. Aus ihrer Sicht reicht es aber nicht, wenn KI-Entwickler auf solche Vorfälle reagierten. Sie müssten die Sicherheit von Kindern von Anfang an mitdenken, fordert Kurian.
Martin Bregenzer von der Initiative Klicksafe sieht das genauso: «Kinderschutz im Nachhinein zu ergänzen, funktioniert meistens nicht. Das sehen wir bei ganz vielen Angeboten.»
Deepfakes als Risiko
Als größtes Problem sehen viele Fachleute die Flut von gefälschten Bildern oder Videos im Internet, die mit KI generiert wurden, sogenannte Deepfakes. Diese ließen sich inzwischen im Handumdrehen erstellen und verbreiten, heißt es auch im Jahresbericht von Jugendschutz.net: «Viele der generierten Fälschungen sehen täuschend real aus und sind kaum von tatsächlichen Fotos zu unterscheiden.»
Mithilfe von generativer KI könnten massenhaft verstörende Inhalte erzeugt werden wie Gewalt- oder sexuelle Darstellungen, erläutert Bregenzer. Kinder und Jugendliche könnten dadurch noch leichter zu Opfern von Cybermobbing werden.
Was ist wahr, was ist falsch? Das können selbst Erwachsene im Internet mitunter kaum erkennen. Kindern falle das noch schwerer, denn ihnen fehle die Urteilskraft und der Erfahrungshorizont, sagt David Martin, Experte für Bildschirmmedien bei der Deutschen Gesellschaft für Kinder- und Jugendmedizin (DGKJ). «Kinder haben eine grundsätzliche Begabung dazu, alles zu glauben.»
Kritisch sieht der Experte in dem Zusammenhang, dass es verlockend sei, Sprachmodelle wie ChatGPT zu nutzen, um alle wichtigen Informationen zum Beispiel für ein Schulreferat zu bekommen. Selbst zu recherchieren und auszuwählen sei nicht mehr nötig: «Eine ganz wichtige Kompetenz für unsere Demokratie – die Urteilsfähigkeit – gerät dadurch in Gefahr.»
Chatbots, die wie Menschen wirken
Viele Sprachmodelle erwecken dagegen den Eindruck, sie selbst würden die Informationen abwägen: Auf Fragen antworten sie nicht im Block, sondern nach und nach – als würde ein Mensch auf einer Tastatur tippen. Besonders problematisch ist aus Kurians Sicht, dass Kinder einem menschlich klingenden Chatbot wie einem Freund vertrauen könnten – mit dem sie zum Teil sehr persönliche Informationen teilten, dessen Antworten sie aber auch besonders verstören könnten.
Dennoch sollte man die KI nicht verteufeln, sondern auch ihre positive Seiten sehen, meint Markus Sindermann von der Fachstelle für Jugendmedienkultur NRW. Künstliche Intelligenz sei in erster Linie ein technisches Werkzeug – mit dem Menschen einerseits Falschinformationen erzeugen könnten, das anderseits aber auch genutzt werden könne, um genau diese aufzuspüren und aus dem Internet zu löschen.
Die Beispiele aus Kurians Studie und dem Jahresbericht von Jugendschutz.net stammten aus dem vergangenen Jahr, ergänzt Sindermann. «Die Entwicklung ist so rasant bei Künstlicher Intelligenz, dass diese eigentlich schon wieder veraltet sind.»
Der Experte Martin von der Universität Witten/Herdecke geht deshalb davon aus, dass KI in Zukunft viel besser auf Kinder eingehen können wird. «Die große Gefahr könnte dann sein, dass die KI so gut darin sein wird, die Belohnungssysteme von Kindern anzusprechen, dass diese möglichst viel Zeit damit verbringen wollen.»
dpa