Quelles données ChatGPT collecte-t-il ?
Lorsque vous utilisez ChatGPT, OpenAI collecte bien plus que le texte que vous saisissez dans la fenêtre de chat. Selon leur politique de confidentialité, les données recueillies se répartissent en plusieurs catégories :
- Contenu des conversations — chaque prompt que vous envoyez et chaque réponse que vous recevez, y compris les données personnelles présentes dans vos messages.
- Informations de compte — votre nom, adresse e-mail, numéro de téléphone et coordonnées de paiement si vous souscrivez un abonnement payant.
- Données d'utilisation — votre adresse IP, type de navigateur, informations sur l'appareil et habitudes d'utilisation comme les horodatages, la fréquence d'utilisation et les fonctionnalités consultées.
- Cookies et suivi — données d'analyse web standard utilisées pour le suivi des performances et la publicité.
La principale préoccupation pour la plupart des utilisateurs concerne la première catégorie. Toute information personnelle que vous collez dans le chat — qu'elle vous appartienne, concerne un collègue ou un client — entre dans le jeu de données d'OpenAI, sauf si vous désactivez explicitement la collecte de données d'entraînement.
La politique de données d'OpenAI : ce que disent les petits caractères
Les conditions d'utilisation et la politique de confidentialité d'OpenAI ont évolué depuis le lancement de ChatGPT. Début 2026, les points les plus importants sont :
- Entraînement par défaut. Pour les utilisateurs gratuits et Plus, les conversations peuvent être utilisées pour améliorer les modèles d'OpenAI, sauf si vous désactivez l'option « Améliorer le modèle pour tout le monde » dans vos paramètres. Beaucoup d'utilisateurs ne modifient jamais ce réglage par défaut.
- Exceptions entreprise. Les clients ChatGPT Enterprise et API bénéficient de garanties contractuelles plus solides stipulant que leurs données ne seront pas utilisées pour l'entraînement. Mais les utilisateurs individuels et les petites équipes ne disposent généralement pas de ces protections.
- Conservation des données. Même avec l'entraînement désactivé, OpenAI conserve les conversations pendant 30 jours maximum pour la surveillance de sécurité et la prévention des abus avant suppression.
- Réviseurs humains. Des employés et sous-traitants d'OpenAI peuvent consulter les conversations à des fins de recherche en sécurité. Cela signifie qu'une personne réelle pourrait potentiellement lire vos messages.
Ce n'est pas nécessairement malveillant — toutes les grandes entreprises d'IA ont des politiques similaires. Mais cela signifie que toute donnée à caractère personnel (DCP) que vous saisissez pourrait être stockée, examinée et potentiellement utilisée d'une manière que vous n'aviez pas prévue.
Les risques réels du partage de données personnelles avec les chatbots IA
Fuites de données via les réponses du modèle
Les grands modèles de langage peuvent mémoriser puis reproduire des fragments de leurs données d'entraînement. Des chercheurs ont démontré qu'avec les bonnes techniques de prompting, il est parfois possible d'extraire des données d'entraînement des modèles. Si vos informations personnelles ont été incluses dans l'entraînement, elles pourraient théoriquement apparaître dans la conversation d'un autre utilisateur.
Exposition en cas de violation
En mars 2023, un bug du client Redis a exposé les titres de conversation, les informations de paiement et les adresses e-mail d'utilisateurs de ChatGPT à d'autres utilisateurs. Tout stockage centralisé de données est une cible potentielle pour les violations, et les entreprises d'IA ne font pas exception. Plus le système contient de données personnelles, plus une violation est dommageable.
Risques réglementaires et juridiques
Si vous travaillez dans la santé, la finance ou les services juridiques, coller des données clients dans ChatGPT peut enfreindre des réglementations comme le RGPD, la HIPAA ou les obligations de confidentialité professionnelle. L'Italie a temporairement interdit ChatGPT en 2023 pour des préoccupations liées au RGPD, et plusieurs pays ont lancé des enquêtes sur les pratiques de données des IA.
La fuite Samsung : un avertissement
En avril 2023, des ingénieurs de Samsung ont involontairement divulgué du code source confidentiel et des notes de réunions internes en les collant dans ChatGPT. Les données sont entrées dans le pipeline d'entraînement, et Samsung n'a pas pu les récupérer ni les supprimer.
Cet incident a marqué un tournant dans les politiques d'IA en entreprise. Samsung a ensuite interdit l'utilisation des outils d'IA générative sur les appareils de l'entreprise, et de nombreuses autres organisations ont suivi le mouvement. La leçon était claire : une fois les données soumises à un service d'IA dans le cloud, vous en perdez le contrôle.
Le cas Samsung concernait des données commerciales propriétaires, mais le même risque s'applique aux données personnelles. Si vous collez les dossiers médicaux d'un client, les coordonnées financières d'un consommateur ou l'e-mail personnel d'un employé dans un chatbot, ces informations pourraient persister indéfiniment dans les systèmes du fournisseur.
Comment vous protéger
Il n'est pas nécessaire d'arrêter complètement d'utiliser les outils d'IA — ils sont véritablement utiles. Mais vous devriez adopter des habitudes qui minimisent les risques :
- Désactivez le partage des données d'entraînement. Dans les paramètres de ChatGPT, désactivez « Améliorer le modèle pour tout le monde ». Cela n'élimine pas toute conservation de données, mais empêche vos conversations d'alimenter l'entraînement des futurs modèles.
- Ne collez jamais de DCP brutes. Avant d'envoyer un prompt contenant des noms, e-mails, numéros de téléphone, adresses ou informations financières, remplacez-les par des variables génériques. Au lieu de « Rédige un e-mail pour Jean Dupont à [email protected] », écrivez « Rédige un e-mail pour [NOM] à [EMAIL] ».
- Utilisez les chats temporaires ou anonymes. Le mode chat temporaire de ChatGPT réduit la conservation des données. Envisagez de l'utiliser pour toute conversation impliquant des informations sensibles.
- Vérifiez vos prompts. Avant d'appuyer sur Envoyer, relisez votre message. Seriez-vous à l'aise si ce texte apparaissait dans un rapport de violation de données ? Si ce n'est pas le cas, supprimez les parties sensibles.
- Automatisez l'anonymisation. La rédaction manuelle est fastidieuse et source d'erreurs. Les outils qui détectent et masquent automatiquement les DCP avant qu'elles n'atteignent le fournisseur d'IA offrent une approche plus fiable, surtout si vous utilisez fréquemment les chatbots.
Automatisez votre confidentialité avec une extension de navigateur
Scanner manuellement chaque prompt pour détecter les données personnelles n'est pas réaliste pour la plupart des gens, surtout les professionnels qui utilisent l'IA des dizaines de fois par jour. C'est le problème que Private Prompt a été conçu pour résoudre.
Private Prompt est une extension de navigateur qui détecte et anonymise automatiquement les données personnelles — noms, e-mails, numéros de téléphone, adresses et informations financières — avant que vos prompts ne quittent le navigateur. L'anonymisation s'effectue localement sur votre appareil, de sorte que les données sensibles n'atteignent jamais OpenAI, Anthropic ou tout autre fournisseur d'IA. Lorsque la réponse arrive, l'extension restaure les valeurs d'origine pour que vous voyiez le contexte complet.
Elle fonctionne avec ChatGPT, Claude, Gemini et d'autres chatbots IA populaires sans aucune configuration requise. Si vous souhaitez utiliser l'IA sans compromettre votre vie privée ou les données de vos clients, cela vaut la peine d'y jeter un œil.
Évitez que vos données personnelles ne servent à entraîner l'IA
Private Prompt anonymise automatiquement vos prompts, directement dans votre navigateur. Aucune donnée ne quitte votre appareil sans protection.
En savoir plus sur Private Prompt
Private Prompt