Fuite de prompts ChatGPT vers Google Search Console : un bug aurait exposé des requêtes privées
Des rapports récents suggèrent qu’un dysfonctionnement a permis à des conversations privées avec ChatGPT d’apparaitre dans Google Search Console (GSC), un outil destiné aux webmasters pour suivre le trafic de recherche. OpenAI indique que le problème a été corrigé et qu’il concernait un « petit nombre de requêtes de recherche » routées vers GSC.
Ce qui s’est passé
Selon un article d’Ars Technica et un rapport initial de la société de conseil Quantable, détenue par Jason Packer, certaines requêtes adressées à ChatGPT ont été visibles dans Google Search Console. GSC n’est pas conçu pour stocker des conversations d’IA, mais pour permettre aux propriétaires de sites de surveiller leurs performances dans Google Search.
OpenAI a qualifié l’incident de bug et affirme l’avoir résolu. Quantable, qui a décrit le phénomène en octobre, a suggéré qu’un comportement de type « scraping » de Google pour répondre à des prompts pourrait expliquer pourquoi ces requêtes apparaissaient dans GSC, sans que OpenAI ait confirmé ni infirmé cette hypothese.
Contexte et implications
Le cas illustre les limites de la confidentialité des chatbots. Le recours au scraping de contenus en ligne est une pratique répandue chez certains acteurs de l’IA pour trouver des réponses, mais il a déjà posé des problèmes juridiques lorsque des sites ont interdit cette pratique.
Plus largement, ce type d’incident rappelle que les conversations avec des chatbots ne sont pas totalement privées et que l’utilisateur a peu de contrôle sur la destination finale des données saisies. Des questions similaires sont apparues dans d’autres affaires, notamment lorsque des autorités judiciaires ont demandé l’accès à des historiques de conversation.
Conseils pratiques
- Eviter de partager des informations sensibles (coordonnees, numéros, informations médicales ou juridiques) dans les prompts.
- Considérer les chatbots comme des outils publics du point de vue de la confidentialité; ne pas les remplacer par des conversations personnelles ou thérapeutiques sans précaution.
- Suivre les communiqués officiels des fournisseurs d’IA pour connaître les correctifs et les politiques de gestion des données.
OpenAI dit avoir corrigé le bug, mais certains observateurs restent prudents tant que les pratiques de collecte et d’utilisation de données ne sont pas totalement transparentes.




