top of page

KI-Nutzung im Unternehmen: Diese Daten dürfen Sie niemals preisgeben

Früher Google, heute ChatGPT, Gemini, Copilot und Co.


Immer häufiger interagieren wir auch in unserem Arbeitsalltag mit KI-Chatbots. Anstatt etwas selbstständig über Suchmaschinen zu recherchieren, wird schnell mal die KI nach einer Lösung oder Idee gefragt. Das mag enorme Effizienzgewinne bringen, doch bergen ChatGPT und Co. auch erhebliche Risiken.

 

Als IT-Dienstleister sehen wir täglich, wie leichtfertig vertrauliche Informationen in KI-Systeme eingegeben werden – mit potenziell katastrophalen Folgen.


In diesem Beitrag wollen wir deshalb zeigen, welche Daten Sie niemals mit KI-Chatbots teilen sollten, welche realen Vorfälle bereits existieren und wie Sie Ihr Unternehmen schützen können.


Diese Daten haben in ChatGPT nichts verloren


KI-Tools versprechen Erleichterung bei allen Aufgaben. Die wenigsten User:innen bedenken dabei jedoch, dass wir selbst bei den kostenlosen Tools einen sehr hohen Preis bezahlen – in Form unserer Daten. Denn diese werden oft zum Training anderer KI-Modelle genutzt, weshalb insbesondere Unternehmen auf gewisse Tabuthemen achten sollten:

 

1.      Vertrauliche Unternehmensdaten


Eine Studie von Cyberhaven zeigt, dass in Unternehmen mit 100.000 Mitarbeiter:innen innerhalb einer Woche durchschnittlich 199 Mal vertrauliche Daten in ChatGPT eingegeben wurden. Dazu zählen:


-          Strategie- und Finanzdokumente

-          Proprietäre Quellcodes

-          Vertragsinhalte

-          Produkt-Roadmaps


Einmal eingegeben, können diese Informationen im schlimmsten Fall in zukünftigen Antworten wieder auftauchen – auch bei Dritten.

Das ist keine Situation, die man als Unternehmen mit vertraulichen Daten kennenlernen möchte. Besonders bei Gratis-Tools ist darauf zu achten, keine sensiblen Daten anzugeben. Was man sich grundsätzlich merken kann: "Ist es gratis, bezahlt man mit seinen Daten dafür."


Bei bezahlten Tools, deren Server im Ausland liegen, ist der Datenschutz zwar auch keine Garantie, aber auf jeden Fall mehr gegeben als bei frei zugänglichen Anbietern.

 

2.      Kundendaten & personenbezogene Daten


Namen, Wohnadressen, Telefonnummern und andere sensible Daten haben bei ChatGPT und Co. nichts zu suchen!


Man kann nie sagen, wo die eingegeben Daten am Ende landen und wie sie genutzt werden. Sie könnten auch durch Serverangriffe geleakt und anschließend von Dritten für Phishing-Angriffe missbraucht werden.

 

Laut Wald.ai wurden pro 100.000 Mitarbeitenden durchschnittlich 173 Kundendatensätze in ChatGPT hochgeladen. Das verstößt nicht nur gegen die DSGVO, sondern kann auch zu erheblichen Bußgeldern führen. Auch Passwörter, Logins und andere Zugangsdaten sollten unter keinen Umständen in KI-Chatbots übertragen werden, da KI-Tools oftmals mit anderen Diensten verknüpft sind, um App-übergreifend helfen zu können.

 

3.      Geistiges Eigentum & Geschäftsgeheimisse


Das Teilen von Erfindungen oder geschützten Verfahren mit ChatGPT kann als öffentliche Offenlegung gelten und den Patentschutz gefährden. Auch Quellcodes, die über ChatGPT generiert oder verarbeitet werden, könnten urheberrechtlich problematisch werden.


DSGVO und KI: Ein Widerspruch?


Viele Unternehmen gehen davon aus, dass die Nutzung von KI-Tools automatisch datenschutzkonform sei. Das ist jedoch ein gefährlicher Irrtum.


Fakt ist, dass die meisten gängigen KI-Dienste wie ChatGPT, Google Gemini, Microsoft Copilot oder Claude in ihrer Standardversion eben NICHT DSGVO-konform sind.


Warum?


  • Die Server stehen oft außerhalb der EU (z.B. in den USA).

  • Es ist unklar, wie und wofür die eingegeben Daten gespeichert und verarbeitet werden.

  • Nutzer geben häufig personenbezogene Daten ein, ohne eine gültige Rechtsgrundlage oder Einwilligung.


Reale Vorfälle: Wenn KI zum Risiko wird

 

1.      Samsung: Interne Daten geleakt

2023 gaben Samsung-Mitarbeitende vertrauliche Informationen in ChatGPT ein, darunter Quellcodes und Besprechungsprotokolle. Die Folge: ein interner Datenleak und ein temporäres Verbot von KI-Tools im Unternehmen.


2.      Prompt Injection: KI lässt sich manipulieren

Eine Studie der Ben-Gurion-Universität von 2025 zeigt, dass ChatGPT und andere KI-Modelle durch sogenannte „Prompt Injections“ dazu gebracht werden können, gefährliche oder illegale Anleitungen zu geben.


Handlungsempfehlungen für Unternehmen


Erstellen Sie verbindliche Richtlinien zur Nutzung von KI-Tools und schulen Sie Ihre Mitarbeiter:innen regelmäßig zu den Themen Datenschutz und Sicherheitsrisiken.


Implementieren Sie Data Loss Prevention (DLP)-Systeme, um das Teilen sensibler Daten zu verhindern und nutzen Sie Enterprise-Versionen von KI-Tools mit erweiterten Datenschutzfunktionen.


Überwachen Sie die Nutzung von KI-Tools durch Mitarbeitende und setzen Sie auf rollenbasierte Zugriffskontrollen und Protokollierung.

 

Fazit


KI-Tools wie ChatGPT bieten zwar enorme Chancen im Arbeitsalltag, aber auch erhebliche Risiken. Ein unbedachter Umgang kann zu Datenschutzverletzungen, Verlust von Geschäftsgeheimnissen und rechtlichen Konsequenzen führen.

 

Insbesondere Unternehmen sollten im Umgang mit diesen Tools proaktiv handeln, klare Richtlinien etablieren und technische Schutzmaßnahmen implementieren, um sich und ihre Daten zu schützen.

 

Vorsicht ist besser als Nachsicht.


Sie suchen nach einem KI-Tool, das nicht nur eine Erleichterung im Arbeitsalltag, sondern auch noch datenschutz-konform ist?


Wir haben die Lösung! Nehmen Sie gerne Kontakt zu uns auf und fragen Sie nach unserer KI-Lösung.






Quellenverzeichnis:


 

 

 

 

 

 

 

 
 
 

Bình luận


bottom of page