Kommentar

ChatGPT und Datensicherheit – Datenlecks erfolgreich vorbeugen

KI, ChatGPT, künstliche Intelligenz
Quelle: Ascannio / Shutterstock.com

Ein Statement von Torsten Wiedemeyer, Country Manager DACH/ Central & Eastern Europe bei Cymulate, zur wachsenden Datensicherheitsproblematik, die sich für Unternehmen und Behörden aus der zunehmenden Nutzung von KI-gestützten generativen Plattformen wie ChatGPT ergibt.

Seit einigen Monaten schon bestimmt die generative Plattform ChatGPT die nationalen wie internationalen Schlagzeilen. Das KI-gestützte Tool ist in der Lage, komplexe Frage- und Aufgabenstellungen in bis dato nicht gekannter Geschwindigkeit zu lösen – zielgenau ausgerichtet auf die individuellen Wünsche seines jeweiligen Anwenders. Möglich macht dies ein besonderes Feature: seine Fähigkeit, aus jeder Interaktion mit seinen Anwendern zu lernen, die Daten, die diese zur Spezifizierung ihrer Frage- und Aufgabenstellungen eingeben, zu speichern und so sich selbst und seine Antworten immer weiter zu optimieren und zu perfektionieren. Hieraus ergibt sich für die Anwender, vor allem aber für ihre Arbeitgeber, für Unternehmen und Behörden, ein echtes Problem. Denn während ihrer Interaktion mit der KI können Anwender – ob nun bewusst oder unbewusst – auch personenbezogene und personenbeziehbare Daten, vertrauliche Unternehmensdaten und streng vertrauliche Behördendaten eingeben. Die KI nimmt diese Informationen dann auf und lernt aus ihnen, lässt sie in ihren Datenspeicher einfließen und nutzt sie anschließend zur Bearbeitung von Fragen- und Aufgabenstellungen anderer Nutzer. Dabei kann es leicht passieren, dass nicht für die Öffentlichkeit bestimmte Informationen an eben diese preisgegeben werden.

Anzeige

In den kommenden Jahren wird sich die Nutzung solcher Plattformen – im Privat- wie im Berufsleben – zum Standard entwickeln. Jeden Tag werden dann Millionen und Abermillionen – vielleicht Milliarden – von Anfragen gestellt, bearbeitet und immer stärker orientiert an den individuellen Wünschen des jeweiligen Anwenders abgeschlossen werden. Dutzende Anbieter arbeiten bereits an der Entwicklung eigener KI-gestützter generativer Plattformen, um es OpenAI und ChatGPT gleichzutun.

Die Verhinderung der unerwünschten Veröffentlichung und Verarbeitung von Daten, davon ist auszugehen, wird sich in den kommenden Jahren für Unternehmen und Behörden deshalb zu einer immer größeren Herausforderung entwickeln. Dabei haben sie schon heute, dies zeigt Cymulate’s 2022 State of Cybersecurity Effectiveness Report mehr als deutlich, enorme Schwierigkeiten, den Abfluss von Daten, die sich eigentlich unter ihrer alleinigen Kontrolle befinden sollten, zu stoppen. Drei Ansätze stehen Unternehmen und Behörden zur Auswahl, die Weitergabe personenbezogener und personenbeziehbarer, verstraulicher und streng vertraulicher Daten an KI-gestützte generative Plattformen wie ChatGPT einzudämmen oder gleich ganz zu verhindern:

  • Sie können den Zugriff auf die Domains und IP-Adressen aller ihnen bekannten ChatGPT-Webseiten über das Unternehmensnetzwerk blockieren. Das Problem: IP-Adressen ändern sich ständig, Anwender nutzen die Dienste der KI auch jenseits des Unternehmensnetzwerkes und immerzu kommen neue generativen KI-Dienste hinzu, die blockiert werden müssen. Für sich allein reicht dieser Ansatz dementsprechend nicht aus.
  • Zusätzlich können sie auf fortschrittliche Systeme, wie Data Loss Prevention-Tools und Cloud Access Security Broker, setzen. Hierbei sollten sie aber stets technische und juristische Berater hinzuziehen. Und: eine Security Posture Management-Plattform. Denn wollen sie hundert Prozent sicher gehen, dass ihre Sicherheitskontrollen und ihre Tools zur Verhinderung von Datenverlusten im entscheidenden Moment auch wirklich wie von ihnen geplant greifen, müssen sie sie zuvor eingehend auf deren Effektivität getestet haben.
  • Und schließlich können sie ihre Belegschaften im richtigen Umgang mit KI-gestützten generativen Plattformen schulen und trainieren – wahrscheinlich die simpelste Methode zur Vorbeugung von Datenverlusten.

Der Boom der generativen KI-Plattformen wird das Schadenspotential von Datenlecks in den kommenden Jahren stark anheben. Unternehmen und Behörden müssen sich darauf vorbereiten. Mitarbeiter müssen sensibilisiert, Datenflüsse stärker überwacht und Webseiten bekannter Anbieter im Unternehmensnetzwerk gesperrt werden. Nur so wird sich das Sicherheitsrisiko, das der unkontrollierte Datenabfluss schon heute darstellt, in den Griff bekommen lassen.

Anzeige

Torsten

Wiedemeyer

Country Manager DACH, Central & Eastern Europe

Cymulate

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.