Zurück

Datenschutz paradox: Wenn die Wächter schummeln

26. Februar 2024

Wenn die das tun, kann's nicht so schlimm sein, oder? Verantwortliche für Datenschutz und Sicherheit geben im großen Stil Informationen in KI-Tools preis, obwohl bei ihnen zu erwarten wäre, dass sie ihre Rolle als Wächter der Daten auch leben. Was schließen wir daraus? Zunächst einmal lernen wir dadurch etwas über KI.

Überraschende Zahlen zur KI-Nutzung

Laut der Cisco Data Privacy Benchmark Study, die 2.600 Fachleute für Datenschutz und Sicherheit befragt hat, geben 62% der Befragten an, schon einmal Informationen über interne Prozesse in ein KI-Tool eingegeben zu haben. 48% haben schon einmal Informationen über ihr Unternehmen preisgegeben, die als nicht für die Öffentlichkeit bestimmt gekennzeichnet waren, 45% sogar Namen und Informationen von Mitarbeitenden. 38% nannten Namen und Informationen von Kunden.

Verkehrte Welt

Ausgerechnet! Ausgerechnet diejenigen, die für das Thema Datenschutz und Sicherheit verantwortlich sind, ignorieren das, was sie sonst predigen. Sie opfern ihre Prinzipien, denen alle im Unternehmen folgen sollen, für ein schnelles Ergebnis, eine bessere Antwort oder dafür, dass sie früher Feierabend machen können? Wie können wir ihnen dann überhaupt noch vertrauen?

Die Abwägung zwischen Risiko und Nutzen scheint eindeutig Richtung Nutzen auszuschlagen - unabhängig davon, wie bewusst sie überhaupt erfolgt. Ist das Risiko vielleicht gar nicht so hoch? Haben die Entwickler*innen von Samsung einfach nur Pech gehabt, dass ihr Code zu ihnen zurückverfolgt werden konnte? Oder haben sie sich besonders ungeschickt angestellt?

Weder Empörung noch Abtun helfen weiter. Keiner von uns ist frei von kognitiven Verzerrungen - mich wird es schon nicht treffen, bei mir wird es niemand merken. Wenn es bei den Spezialist*innen eine solche Anziehungskraft für KI-Tools gibt, heißt das zunächst einmal, dass diese Tools hochattraktiv und eine echte Hilfe bei der Arbeit sind. Das bestätigen inzwischen viele Studien.

KI sicher im Unternehmen nutzen

Was heißt das für Unternehmen: Der wichtigste Schritt besteht darin, die sichere Nutzung von KI-Tools zu ermöglichen. ChatGPT Team und Enterprise sind sicher, allerdings teuer. Eine günstigere Alternative besteht darin, einen eigenen Chatbot zu nutzen, der über eine Schnittstelle mit dem Sprachmodell arbeitet. Die Ergebnisse sind so gut wie bei ChatGPT, doch Unternehmen können sicher sein, dass die vertraulichen Informationen nicht im Sprachmodell landen.

Mehr lesen