Welche Daten sammelt ChatGPT?

Wenn Sie ChatGPT nutzen, sammelt OpenAI weit mehr als nur den Text, den Sie in das Chat-Fenster eingeben. Laut ihrer Datenschutzerklärung umfassen die erhobenen Daten mehrere Kategorien:

Die größte Sorge für die meisten Nutzer betrifft die erste Kategorie. Alle persönlichen Informationen, die Sie in den Chat einfügen — ob sie Ihnen, einem Kollegen oder einem Kunden gehören — werden Teil des OpenAI-Datensatzes, es sei denn, Sie deaktivieren ausdrücklich die Nutzung für Trainingszwecke.

OpenAIs Datenrichtlinie: Was das Kleingedruckte sagt

Die Nutzungsbedingungen und Datenschutzrichtlinien von OpenAI haben sich seit dem Start von ChatGPT weiterentwickelt. Stand Anfang 2026 sind die wichtigsten Punkte:

Das ist nicht zwingend böswillig — jedes große KI-Unternehmen hat ähnliche Richtlinien. Es bedeutet jedoch, dass jede personenbezogene Information (PII), die Sie eingeben, gespeichert, überprüft und möglicherweise auf Arten verwendet werden könnte, die Sie nicht beabsichtigt haben.

Die tatsächlichen Risiken beim Einfügen persönlicher Daten in KI-Chatbots

Datenlecks durch Modellausgaben

Große Sprachmodelle können Fragmente ihrer Trainingsdaten auswendig lernen und später reproduzieren. Forscher haben gezeigt, dass es mit den richtigen Prompting-Techniken manchmal möglich ist, Trainingsdaten aus Modellen zu extrahieren. Wenn Ihre persönlichen Informationen im Training enthalten waren, könnten sie theoretisch in der Konversation eines anderen Nutzers auftauchen.

Risiko durch Datenpannen

Im März 2023 legte ein Redis-Client-Bug die Gesprächstitel, Zahlungsinformationen und E-Mail-Adressen von ChatGPT-Nutzern gegenüber anderen Nutzern offen. Jeder zentralisierte Datenspeicher ist ein potenzielles Ziel für Sicherheitsverletzungen, und KI-Unternehmen bilden keine Ausnahme. Je mehr persönliche Daten das System enthält, desto schwerwiegender wird ein Datenleck.

Regulatorische und rechtliche Risiken

Wenn Sie im Gesundheitswesen, im Finanzbereich oder in juristischen Diensten arbeiten, kann das Einfügen von Kundendaten in ChatGPT gegen Vorschriften wie die DSGVO, HIPAA oder berufliche Vertraulichkeitspflichten verstoßen. Italien hat ChatGPT 2023 vorübergehend wegen DSGVO-Bedenken gesperrt, und mehrere Länder haben Untersuchungen zu den Datenpraktiken von KI eingeleitet.

Das Samsung-Leck: Ein warnendes Beispiel

Im April 2023 gaben Samsung-Mitarbeiter versehentlich vertraulichen Quellcode und interne Sitzungsnotizen preis, indem sie diese in ChatGPT einfügten. Die Daten gelangten in die Trainingspipeline, und Samsung konnte sie nicht mehr abrufen oder löschen.

Dieser Vorfall war ein Wendepunkt für die KI-Richtlinien in Unternehmen. Samsung verbot daraufhin die Nutzung generativer KI-Tools auf Firmengeräten, und viele andere Organisationen folgten diesem Beispiel. Die Lektion war klar: Sobald Daten an einen Cloud-basierten KI-Dienst übermittelt werden, verliert man die Kontrolle darüber.

Der Samsung-Fall betraf proprietäre Geschäftsdaten, aber das gleiche Risiko gilt für persönliche Daten. Wenn Sie die Krankenakten eines Klienten, die Finanzdaten eines Kunden oder die private E-Mail eines Mitarbeiters in einen Chatbot einfügen, könnten diese Informationen auf unbestimmte Zeit in den Systemen des Anbieters verbleiben.

Wie Sie sich schützen können

Sie müssen nicht ganz auf KI-Tools verzichten — sie sind wirklich nützlich. Aber Sie sollten Gewohnheiten entwickeln, die das Risiko minimieren:

  1. Trainingsdaten-Weitergabe deaktivieren. Schalten Sie in den ChatGPT-Einstellungen „Modell für alle verbessern“ aus. Das eliminiert nicht jede Datenspeicherung, hält Ihre Gespräche aber vom künftigen Modelltraining fern.
  2. Niemals rohe personenbezogene Daten einfügen. Bevor Sie einen Prompt senden, der Namen, E-Mail-Adressen, Telefonnummern, Adressen oder Finanzdaten enthält, ersetzen Sie diese durch Platzhalter. Statt „Verfasse eine E-Mail an Max Mustermann unter [email protected]“ schreiben Sie „Verfasse eine E-Mail an [NAME] unter [E-MAIL]“.
  3. Temporäre oder anonyme Chats nutzen. Der temporäre Chat-Modus von ChatGPT reduziert die Datenspeicherung. Verwenden Sie ihn für alle Gespräche mit sensiblen Informationen.
  4. Prompts überprüfen. Lesen Sie Ihre Nachricht vor dem Absenden noch einmal durch. Wären Sie damit einverstanden, wenn dieser Text in einem Datenleck-Bericht auftauchen würde? Falls nicht, entfernen Sie die sensiblen Teile.
  5. Anonymisierung automatisieren. Manuelles Schwärzen ist mühsam und fehleranfällig. Tools, die personenbezogene Daten automatisch erkennen und maskieren, bevor sie den KI-Anbieter erreichen, bieten einen zuverlässigeren Ansatz — besonders bei häufiger Chatbot-Nutzung.

Automatisieren Sie Ihren Datenschutz mit einer Browser-Erweiterung

Jeden Prompt manuell auf persönliche Daten zu prüfen, ist für die meisten Menschen nicht realistisch — schon gar nicht für Berufstätige, die KI dutzende Male am Tag nutzen. Genau dieses Problem löst Private Prompt.

Private Prompt ist eine Browser-Erweiterung, die persönliche Daten automatisch erkennt und anonymisiert — Namen, E-Mail-Adressen, Telefonnummern, Adressen und Finanzdaten — bevor Ihre Prompts den Browser verlassen. Die Anonymisierung erfolgt lokal auf Ihrem Gerät, sodass die sensiblen Daten niemals OpenAI, Anthropic oder einen anderen KI-Anbieter erreichen. Wenn die Antwort zurückkommt, stellt die Erweiterung die Originalwerte wieder her, damit Sie den vollständigen Kontext sehen.

Sie funktioniert mit ChatGPT, Claude, Gemini und anderen beliebten KI-Chatbots, ohne dass eine Konfiguration erforderlich ist. Wenn Sie KI ernsthaft nutzen möchten, ohne Ihre Privatsphäre oder die Daten Ihrer Kunden zu gefährden, lohnt sich ein Blick darauf.

Halten Sie Ihre persönlichen Daten aus KI-Trainingsdatensätzen heraus

Private Prompt anonymisiert Ihre Prompts automatisch, direkt in Ihrem Browser. Keine Daten verlassen Ihr Gerät ungeschützt.

Mehr über Private Prompt erfahren