Welche Daten sammelt ChatGPT?
Wenn Sie ChatGPT nutzen, sammelt OpenAI weit mehr als nur den Text, den Sie in das Chat-Fenster eingeben. Laut ihrer Datenschutzerklärung umfassen die erhobenen Daten mehrere Kategorien:
- Gesprächsinhalte — jeder Prompt, den Sie senden, und jede Antwort, die Sie erhalten, einschließlich aller persönlichen Daten, die Sie in Ihren Nachrichten angeben.
- Kontoinformationen — Ihr Name, Ihre E-Mail-Adresse, Telefonnummer und Zahlungsdetails, falls Sie ein kostenpflichtiges Abo nutzen.
- Nutzungsdaten — Ihre IP-Adresse, der Browsertyp, Geräteinformationen und Interaktionsmuster wie Zeitstempel, Nutzungshäufigkeit und aufgerufene Funktionen.
- Cookies und Tracking — Standard-Web-Analysedaten zur Leistungsüberwachung und Werbung.
Die größte Sorge für die meisten Nutzer betrifft die erste Kategorie. Alle persönlichen Informationen, die Sie in den Chat einfügen — ob sie Ihnen, einem Kollegen oder einem Kunden gehören — werden Teil des OpenAI-Datensatzes, es sei denn, Sie deaktivieren ausdrücklich die Nutzung für Trainingszwecke.
OpenAIs Datenrichtlinie: Was das Kleingedruckte sagt
Die Nutzungsbedingungen und Datenschutzrichtlinien von OpenAI haben sich seit dem Start von ChatGPT weiterentwickelt. Stand Anfang 2026 sind die wichtigsten Punkte:
- Training standardmäßig aktiviert. Bei kostenlosen und Plus-Nutzern können Gespräche zur Verbesserung von OpenAIs Modellen verwendet werden, es sei denn, Sie deaktivieren den Schalter „Modell für alle verbessern“ in Ihren Einstellungen. Viele Nutzer ändern diese Standardeinstellung nie.
- Unternehmensausnahmen. Kunden von ChatGPT Enterprise und der API erhalten stärkere vertragliche Garantien, dass ihre Daten nicht für das Training verwendet werden. Einzel- und Kleinteam-Nutzer erhalten diese Schutzmaßnahmen in der Regel nicht.
- Datenspeicherung. Auch bei deaktiviertem Training speichert OpenAI Gespräche bis zu 30 Tage zur Sicherheitsüberwachung und Missbrauchsprävention, bevor sie gelöscht werden.
- Menschliche Überprüfer. OpenAI-Mitarbeiter und Auftragnehmer können Gespräche zu Sicherheitszwecken einsehen. Das bedeutet, dass eine reale Person Ihre Nachrichten möglicherweise lesen könnte.
Das ist nicht zwingend böswillig — jedes große KI-Unternehmen hat ähnliche Richtlinien. Es bedeutet jedoch, dass jede personenbezogene Information (PII), die Sie eingeben, gespeichert, überprüft und möglicherweise auf Arten verwendet werden könnte, die Sie nicht beabsichtigt haben.
Die tatsächlichen Risiken beim Einfügen persönlicher Daten in KI-Chatbots
Datenlecks durch Modellausgaben
Große Sprachmodelle können Fragmente ihrer Trainingsdaten auswendig lernen und später reproduzieren. Forscher haben gezeigt, dass es mit den richtigen Prompting-Techniken manchmal möglich ist, Trainingsdaten aus Modellen zu extrahieren. Wenn Ihre persönlichen Informationen im Training enthalten waren, könnten sie theoretisch in der Konversation eines anderen Nutzers auftauchen.
Risiko durch Datenpannen
Im März 2023 legte ein Redis-Client-Bug die Gesprächstitel, Zahlungsinformationen und E-Mail-Adressen von ChatGPT-Nutzern gegenüber anderen Nutzern offen. Jeder zentralisierte Datenspeicher ist ein potenzielles Ziel für Sicherheitsverletzungen, und KI-Unternehmen bilden keine Ausnahme. Je mehr persönliche Daten das System enthält, desto schwerwiegender wird ein Datenleck.
Regulatorische und rechtliche Risiken
Wenn Sie im Gesundheitswesen, im Finanzbereich oder in juristischen Diensten arbeiten, kann das Einfügen von Kundendaten in ChatGPT gegen Vorschriften wie die DSGVO, HIPAA oder berufliche Vertraulichkeitspflichten verstoßen. Italien hat ChatGPT 2023 vorübergehend wegen DSGVO-Bedenken gesperrt, und mehrere Länder haben Untersuchungen zu den Datenpraktiken von KI eingeleitet.
Das Samsung-Leck: Ein warnendes Beispiel
Im April 2023 gaben Samsung-Mitarbeiter versehentlich vertraulichen Quellcode und interne Sitzungsnotizen preis, indem sie diese in ChatGPT einfügten. Die Daten gelangten in die Trainingspipeline, und Samsung konnte sie nicht mehr abrufen oder löschen.
Dieser Vorfall war ein Wendepunkt für die KI-Richtlinien in Unternehmen. Samsung verbot daraufhin die Nutzung generativer KI-Tools auf Firmengeräten, und viele andere Organisationen folgten diesem Beispiel. Die Lektion war klar: Sobald Daten an einen Cloud-basierten KI-Dienst übermittelt werden, verliert man die Kontrolle darüber.
Der Samsung-Fall betraf proprietäre Geschäftsdaten, aber das gleiche Risiko gilt für persönliche Daten. Wenn Sie die Krankenakten eines Klienten, die Finanzdaten eines Kunden oder die private E-Mail eines Mitarbeiters in einen Chatbot einfügen, könnten diese Informationen auf unbestimmte Zeit in den Systemen des Anbieters verbleiben.
Wie Sie sich schützen können
Sie müssen nicht ganz auf KI-Tools verzichten — sie sind wirklich nützlich. Aber Sie sollten Gewohnheiten entwickeln, die das Risiko minimieren:
- Trainingsdaten-Weitergabe deaktivieren. Schalten Sie in den ChatGPT-Einstellungen „Modell für alle verbessern“ aus. Das eliminiert nicht jede Datenspeicherung, hält Ihre Gespräche aber vom künftigen Modelltraining fern.
- Niemals rohe personenbezogene Daten einfügen. Bevor Sie einen Prompt senden, der Namen, E-Mail-Adressen, Telefonnummern, Adressen oder Finanzdaten enthält, ersetzen Sie diese durch Platzhalter. Statt „Verfasse eine E-Mail an Max Mustermann unter [email protected]“ schreiben Sie „Verfasse eine E-Mail an [NAME] unter [E-MAIL]“.
- Temporäre oder anonyme Chats nutzen. Der temporäre Chat-Modus von ChatGPT reduziert die Datenspeicherung. Verwenden Sie ihn für alle Gespräche mit sensiblen Informationen.
- Prompts überprüfen. Lesen Sie Ihre Nachricht vor dem Absenden noch einmal durch. Wären Sie damit einverstanden, wenn dieser Text in einem Datenleck-Bericht auftauchen würde? Falls nicht, entfernen Sie die sensiblen Teile.
- Anonymisierung automatisieren. Manuelles Schwärzen ist mühsam und fehleranfällig. Tools, die personenbezogene Daten automatisch erkennen und maskieren, bevor sie den KI-Anbieter erreichen, bieten einen zuverlässigeren Ansatz — besonders bei häufiger Chatbot-Nutzung.
Automatisieren Sie Ihren Datenschutz mit einer Browser-Erweiterung
Jeden Prompt manuell auf persönliche Daten zu prüfen, ist für die meisten Menschen nicht realistisch — schon gar nicht für Berufstätige, die KI dutzende Male am Tag nutzen. Genau dieses Problem löst Private Prompt.
Private Prompt ist eine Browser-Erweiterung, die persönliche Daten automatisch erkennt und anonymisiert — Namen, E-Mail-Adressen, Telefonnummern, Adressen und Finanzdaten — bevor Ihre Prompts den Browser verlassen. Die Anonymisierung erfolgt lokal auf Ihrem Gerät, sodass die sensiblen Daten niemals OpenAI, Anthropic oder einen anderen KI-Anbieter erreichen. Wenn die Antwort zurückkommt, stellt die Erweiterung die Originalwerte wieder her, damit Sie den vollständigen Kontext sehen.
Sie funktioniert mit ChatGPT, Claude, Gemini und anderen beliebten KI-Chatbots, ohne dass eine Konfiguration erforderlich ist. Wenn Sie KI ernsthaft nutzen möchten, ohne Ihre Privatsphäre oder die Daten Ihrer Kunden zu gefährden, lohnt sich ein Blick darauf.
Halten Sie Ihre persönlichen Daten aus KI-Trainingsdatensätzen heraus
Private Prompt anonymisiert Ihre Prompts automatisch, direkt in Ihrem Browser. Keine Daten verlassen Ihr Gerät ungeschützt.
Mehr über Private Prompt erfahren
Private Prompt