Datenschutz versus KI: Was darf ich eingeben, wann verstoße ich gegen den Datenschutz oder das Urheberrecht?

Wie Sie Chatbots und KI datensicher nutzen

© Juno/AdobeStock
Sprachmodelle sind immer häufiger im täglichen Gebrauch. Doch worauf müssen wir bei der Anwendung von ChatGPT & Co. achten? Wie sicher sind Daten, Texte und Informationen? Was darf ich eingeben, wann verstoße ich gegen den Datenschutz oder das Urheberrecht? working@office hat Fachleute gefragt.
Inhaltsverzeichnis

Die Zahl der aktiven ChatGPT-Nutzenden wächst dem Digitalmagazin t3n zufolge rasant. Auch immer mehr Office-Kräfte arbeiten mit KI-Chatbots – auf Eigeninitiative oder weil ihr Unternehmen KI-Technologien einsetzt. Für Recherchen, Buchungen, Marketing-Konzepte, Formulierungshilfen – die potenzielle Arbeitserleichterung kennt scheinbar keine Grenzen.

Doch wie steht es eigentlich um den Datenschutz bei den Large Language Models (LLMs)? „Der Einsatz von LLM-geschützten Chatbots wie OpenAIs ChatGPT birgt verschiedene datenschutzrechtliche Risiken“, erklärt der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit (HmbBfDI). Eine Pauschalantwort gibt es hier leider nicht.

Risiken der Large Language Models

Zu den Risiken zählen der Hamburger Datenschutzbehörde zufolge neben Rechtsverstößen gegen die DSG-VO (Datenschutzgrund- Verordnung) auch solche gegen das Urheberrecht oder die KI-Verordnung. Nicht ohne Risiko seien Fehler, die durch eine unsachgemäße Nutzung der KI-Chatbots oder sogenannte Halluzinationen entstehen, zum Beispiel die Ausgabe unsinniger Antworten oder unrichtiger personenbezogener Daten.

Da hilft es, die Risiken ein bisschen zu sortieren. Laut den Hamburger Datenschützern lassen sich die problematischen Punkte in zwei Kategorien unterscheiden: einerseits die datenschutzrechtlichen Probleme bei der Entwicklung, also dem Training der KI, und andererseits beim Einsatz von KI.

Trainings-Daten nicht per se DSG-VO-konform

Aber der Reihe nach: KI-Chatbots nutzen LLMs, die mit sehr großen Mengen an Texten – unter anderem aus dem frei verfügbaren Internet – trainiert werden. Diese „aufgeschaufelten“ („Webscraping“) Datenmengen enthalten zahlreiche personenbezogene Daten. „Es ist bei vielen LLMs zu befürchten, dass das Training mit diesen personenbezogenen Daten nicht im Einklang mit der DSG-VO steht“, erklären die Experten des HmbBfDI.

Auch die Urheberrechtsfrage spielt hier mit hinein. „Öffentlich bekannt ist nicht, auf welche Daten ChatGPT konkret zugegriffen hat“, weiß Prof. Dr. Peter Wedde von d+a Consulting, einem Institut für Datenschutz, Arbeitsrecht und Technologieberatung. „Offenkundig hat man es bei Entwicklung und Training der Software aber insbesondere mit dem Urheberrecht nach deutschen oder europäischen Standards nicht sehr genau genommen.“

Aktuell gibt es zu Urheberrechten und LLMs noch etliche Fragen, die sicherlich von Gerichten entschieden werden, bestätigt auch Isabelle Stroot, Referentin für Datenschutz beim Digitalverband Bitkom: „Da ist vieles noch am Anfang.“

Worauf achten beim Einsatz von KI-Chatbots

Beim Einsatz von KI kommt es beispielsweise darauf an, wo der Server des Anbieters steht, auf dem die Daten gespeichert werden – die sogenannte Drittland-Problematik. Nicht überall gelten ähnliche Rechte für personenbezogene Daten wie in der EU mit ihrer DSG-VO.

Auch gut zu wissen: „Eingaben in ChatGPT werden an dessen Hersteller OpenAI übermittelt. Soweit die Teilen-Funktion genutzt wird, sind Chatverläufe unter einem spezifischen Link auch für Dritte einsehbar“, erzählen die Hamburger Datenschutzbeauftragten aus der Praxis und warnen. „Solche sogenannten Deeplinks wurden unlängst von Suchmaschinen indexiert, sodass es zur Offenlegung tausender Chatverläufe gekommen ist, welche in Websuche-Ergebnissen auftauchten.“  

Den vollständigen Artikel lesen Sie in working@office.