Social-Media-Kanäle im Wahn des KI-Trainings

KI-Social-Media

Daten sind digitales Gold, das ist an sich keine neue Erkenntnis. Was wir jedoch in den vergangenen Jahren im Kontext von KI und Datenhunger erlebt haben, ist mit nichts vergleichbar.

Die Frage stellt sich, ob wir im Kontext von KI den Oppenheimer-Effekt erleben: Die Art und Weise wie KI-Modelle aktuell genutzt werden entspricht nicht dem, wie die Urväter diese Technologie erdacht hatten. OpenAI hatte in den Anfängen noch mit den Lern-Algorithmen zu kämpfen und sah sich Vorwürfen ausgesetzt, das Unternehmen würde willkürlich und absichtlich Daten sammeln. Diese umfassten auch jene mit proprietären, sensitiven oder privaten Attributen. Datenschützer kämpften an vielen anderen Fronten gegen das Aufkommen der großen Sammelwut von Unternehmen mit KI-Modellen.

Anzeige

Wenn KI-Modelle mit KI-Inhalten gefüttert werden, oder: wie Social-Media-Plattform-Betreiber den KI-Hype für sich nutzen wollen

Mitte September 2024 tauchten Meldungen auf, dass LinkedIn die Bilder, Texte und Videos seiner Nutzer für sein KI-Modell auswertet. Kurz darauf konnten Nutzer diese Funktion in ihren Einstellungen ausschalten und damit der Nutzung widersprechen. Allerdings geschah dies noch nicht innerhalb der EU und dem Europäischem Wirtschaftsraum (European Economic Association, EEA), denn bislang wurden die Daten in den USA, aber auch in anderen Ländern wie Großbritannien erhoben. Ende September hatte das britische Information Commissioner Office reagiert und LinkedIn hierzu kontaktiert. Es veröffentlichte einen Kommentar hierzu in dem es erklärte, dass „wir {das ICO} uns freuen, dass LinkedIn über die Bedenken nachgedacht hat, die wir bezüglich seines Ansatzes, generative KI-Modelle mit Informationen über seine britischen Nutzer zu trainieren, geäußert haben. Wir begrüßen die Bestätigung von LinkedIn, dass das Unternehmen das Training solcher Modelle bis zur weiteren Zusammenarbeit mit der ICO ausgesetzt hat.“

Nutzerinhalte als Trainingsdaten für KI-Modelle

Darüber hinaus vermerkte das zu Microsoft gehörende Unternehmen, dass es nun keine Daten mehr in der EU, der Schweiz und in Großbritannien erheben werde. Allerdings gilt dies nicht für andere Ländern, in denen die Nutzer nun aktiv in den Datenschutz-Einstellungen selbst tätig werden müssen, um ihre Daten zu schützen. LinkedIn selbst hat im Zuge dessen auch noch ein FAQ gestartet, um Nachfragen der Nutzer zu kanalisieren. Allerdings schweigt sich das Unternehmen genauso darüber aus, seit wann es Daten der Nutzer für sein KI-Modell erhoben hat, wie darüber, ob der Mutterkonzern Microsoft Daten für seine KI-Modelle gesammelt hat. Andere Beispiele wie die Firmen Meta und Zoom zeigen, dass das Business Netzwerk kein Einzelfall ist. Denn Meta plant ganz offiziell KI bei Meta mit Nutzerdaten von Instagram und Facebook zu trainieren, worauf die Verbraucherzentrale in einem Beitrag hinweist. Die Video-Konferenz-Plattform Zoom hatte sich zwar letztes Jahr von der Idee einer eigenen KI verabschiedet, allerdings lebt die Idee mit Zoom AI Companion wieder auf. Dort heißt es „Daten aus den Interaktionen der Nutzer mit den AI-Companion-Funktionen können von Zoom abgerufen, verarbeitet und verwendet werden, um die Dienste bereitzustellen und zu warten, Probleme zu beheben und Support zu leisten.“

Diese Entwicklungen zeigen recht deutlich, wohin die Reise geht. Immer mehr Social-Media- und ähnliche -Plattformen sammeln nicht nur Daten, sondern nutzen sie auch für KI-Modelle. Dies ist aus Sicht des Datenschutzes und der IT-Sicherheit bedenklich. Vor allem dann, wenn die Firmen erst aufgrund des öffentlichen Drucks von Nutzern und Medien publik machen, dass sie es tun. Die Entscheidung von LinkedIn aber auch anderen Plattformen, dass die Nutzer selbst tätig werden müssen und in den Einstellungen die Datennutzung untersagen müssen, greift hier zu kurz.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Initiativen zu Gesetzgebung und Datenschutz

Die Diskrepanz wird deutlich, denn In den USA und der EU werden bei KI-Fragen vollkommen entgegengesetzte Ansätze verfolgt. Ein wichtiges Element ist hierbei der seit August in Kraft getretene EU AI Act. Streitthemen sind die Verletzung der Privatsphäre von Personen durch die verschiedenen KI-Modelle oder die Verwendung von synthetischen Daten, was zu Halluzinationen der KI führt. Dadurch droht, dass den Nutzern eine falsche Realität vorgetäuscht wird. Szenarien wie eine Einflussnahme auf die Gesellschaft durch das Verschwimmen von Grenzen zwischen Des- und Fehlinformationen sind vorstellbar. Besonders in der EU wird die Gefahr einer Einflussnahme der demokratischen Entscheidungsfindung durch KI-Videos mit Des- oder Misinformation betont. Noyb, eine vom Aktivisten Max Schrems gegründete gemeinnützige Organisation mit Sitz in Wien, behauptete im April dieses Jahres, dass das Verhalten von ChatGPT gegen die Datenschutzverordnung (DSGVO) zum Schutz der Privatsphäre, der Richtigkeit von Informationen und dem Recht auf Berichtigung unrichtiger Informationen verstößt. Sie argumentierte auch, dass die KI-Firma sich weigerte, falsche Antworten zu korrigieren oder zu löschen, und keine Informationen über die verarbeiteten Daten, ihre Quellen oder Empfänger offenlegen wird.

Schlußfolgerung

Die bisherigen Entwicklungen im Bereich des KI-Trainings zeigen, dass es für KI-Unternehmen zunehmend schwerer werden wird, angesichts einer sich formierenden Regulierung ihre Modelle mit Nutzerdaten zu trainieren. Abzuwarten bleibt, wie LinkedIn und andere Plattformen nun reagieren und mit dem Druck der Nutzer und der Gesetzgebung umgehen werden. Neben dem Datenschutzaspekt sollte aber auch die IT-Sicherheit nicht unterschätzt werden. Denn Nutzer sollten sich nicht auf die Plattformen oder die Gesetzgebung verlassen, sondern so sparsam mit personenbezogenen Daten wie möglich umgehen. Letztlich sind die Plattformen nicht die einzigen, die Daten sammeln und für KI-Modelle verwenden – auch Hacker halten stets die Augen offen.

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.