Mit DeepSeek betritt ein leistungsstarker Open-Source-Chatbot die Bühne und heizt den Wettlauf um Künstliche Intelligenz neu an. Doch mit der Demokratisierung der KI wachsen auch die Bedenken um Datenschutz, Energieverbrauch und versteckte Vorurteile in den Modellen. Ein Kommentar von Sam Curry, VP & CISO bei Zscaler.
Mit DeepSeek wurde die nächste Welle des KI-Rushs ausgelöst. Der Open Source KI-gestützte Chatbot macht OpenAI Konkurrenz. Mit jeder KI-Innovation rücken allerdings auch wieder deren Auswirkungen auf den Datenschutz in den Vordergrund. Dementsprechend sollte auch bei diesem Tool vor der Einführung ein genauerer Blick auf Datenschutzüberlegungen erfolgen.
Die Engines von Tools wie ChatGPT und jetzt auch DeepSeek greifen auf Daten als Kontext für die Modellierung und die Ergebnisfindung zurück. Die Frage muss geklärt werden, wer im Unternehmen diese Datengrundlage kontrolliert und wer Zugriff darauf erhält. Welche Daten fließen in die KI-Tools und welche Vorurteile wurden womöglich in diese Umgebungen eingebaut?
Demokratisierung der KI
DeepSeek tritt mit dem Anspruch an, immense Datenmengen effizient zu verarbeiten. Gleichzeitig hat das Unternehmen aufgrund der deutlich geringeren Kosten im Vergleich zu seinen Marktbegleitern auch Aktienmärkte in Bewegung versetzt. Über Jahre hinweg hat die USA den Marktplatz der digitalen Innovationen dominiert. Kein Wunder, dass der Newcomer aus China als Gefahr angesehen wird. Ähnliches konnte auch im Rennen um die Cloud oder andere IT-Innovationswellen betrachtet werden.
Demnach wird erwartet, dass DeepSeeks Auftritt einen gewissen Demokratisierungs-Effekt auf die KI-Landschaft ausüben kann, indem die eingeschworene Gruppe aus dem Silicon Valley die Zukunft dieser Technologie nicht mehr allein gestalten wird. Die Tatsache, dass DeepSeek eine Open Source KI-Plattform ist, muss allerdings genauer evaluiert werden. Auch wenn der Code des Tools offenliegt, sind die verwendeten Trainingsdaten undurchsichtig, so dass es schwierig ist, eventuelle Vorurteile oder Sicherheitsrisiken zu erfassen.
Allerdings geht von der bisher nie dagewesenen Effizienz des Tools ein gewisser Reiz aus. Das größte Problem im Silicon Valley seit Beginn des KI-Rushs vor zwei Jahren ist der mit den in Mode gekommenen Chatbots und KI-Anwendungen einhergehende Anstieg des Energieverbrauchs durch die enormen Verarbeitungskapazitäten der Daten. Mit der jüngsten KI-Entwicklung geht die Erwartung an größere Effizienz und damit verbunden ein großes Energieeinsparungspotenzial einher, da weniger Computing-Power benötigt wird.
Bisher näherte sich die Computing-Kurve einer flachen Asymptote an, getrieben durch die Nachfrage und in der Folge steigenden Kosten, was mit einer Marktkapitalisierung für Unternehmen in diesem Ökosystem einherging. Diese Nachfrage, vor allem nach Grafikverarbeitungsunits (GPU), kann sich nun ändern, wenn sich durch DeepSeek ein neues Gleichgewicht zwischen Angebot und Bedarf einstellt.
Allerdings ist das zu erwartende Einsparungspotenzial vermutlich nur von kurzer Dauer. Das neue KI-Tool wird kurz- bis mittelfristig als Katalysator für die Nachfrage nach noch mehr KI-Innovationen wirken. Früher oder später werden Organisationen erneut an den Punkt gelangen, wo das Kapazitätsmaximum an Energiebedarf und Computing-Power an die frühere Asymptote zurückkehrt. Sofern es keinen neuen Durchbruch in Sachen Energieproduktion oder Computing gibt, wie durch Quantum Computing, wird sich das Ökosystem also wieder stabilisieren.
Ausgereifte KI-Grundlagen
Trotzdem sollten Organisationen im Hype um das Ausrollen neuer KI-gestützter Anwendungen den Datenschutz nicht vernachlässigen. KI-Governance, rechtliche, soziale und ethische Überlegungen müssen neben der Effizienz und Leistungsfähigkeit für die Beurteilung von KI-Tools herangezogen werden. Organisationen müssen all diese Grundlagen vor dem Einsatz innovativer Tools in Einklang bringen. Jeder dieser Dimensionen benötigt nicht nur ein Rahmenwerk und dessen Durchsetzung, sondern auch Klarheit und Kommunikation.
Wenn Organisationen also damit anfangen, ihre KI-Tools verstärkt mit Informationen zu füttern, um die Adaption voranzutreiben, müssen zuvor Prüfungen auf mögliche Vorurteile erfolgen und Transparenz dazu bestehen, welche Daten zum Einsatz kommen und gesammelt werden. Schließlich gilt es nicht nur die Ergebnisse der KI-Modelle zu evaluieren, sondern muss auch berücksichtigt werden, wer darauf Zugriff hat. In dem Moment, indem KI Einzug hält, müssen Organisationen für angemessene Sicherheitsmaßnahmen zum Schutz ihrer Daten sorgen.
Diejenigen Unternehmen, die in den vergangenen zwei Jahren Zeit für die Entwicklung von KI-Governance und die Vorbereitung für den Schutz ihrer Daten aufgebracht haben, werden am ehesten Profit aus der KI-Innovationswelle schlagen können. Sie haben KI-Richtlinien entwickelt, Tools evaluiert und die Sicherheit im Umgang mit ihren Datenschätzen gewonnen. Aufbauend auf ethischen Grundlagen und einem Überblick über all ihre KI-Projekte können ihre Abteilungen loslegen, die Funktionalität von KI-Innovationen für den Einsatz zu evaluieren.