Fuite de prompts ChatGPT vers Google Search Console : un bug aurait exposé des requêtes privées

Fuite de prompts ChatGPT vers Google Search Console : un bug aurait exposé des requêtes privées

13 novembre 2025

Fuite de prompts ChatGPT vers Google Search Console : un bug aurait exposé des requêtes privées

Des rapports récents suggèrent qu’un dysfonctionnement a permis à des conversations privées avec ChatGPT d’apparaitre dans Google Search Console (GSC), un outil destiné aux webmasters pour suivre le trafic de recherche. OpenAI indique que le problème a été corrigé et qu’il concernait un « petit nombre de requêtes de recherche » routées vers GSC.

Ce qui s’est passé

Selon un article d’Ars Technica et un rapport initial de la société de conseil Quantable, détenue par Jason Packer, certaines requêtes adressées à ChatGPT ont été visibles dans Google Search Console. GSC n’est pas conçu pour stocker des conversations d’IA, mais pour permettre aux propriétaires de sites de surveiller leurs performances dans Google Search.

OpenAI a qualifié l’incident de bug et affirme l’avoir résolu. Quantable, qui a décrit le phénomène en octobre, a suggéré qu’un comportement de type « scraping » de Google pour répondre à des prompts pourrait expliquer pourquoi ces requêtes apparaissaient dans GSC, sans que OpenAI ait confirmé ni infirmé cette hypothese.

Contexte et implications

Le cas illustre les limites de la confidentialité des chatbots. Le recours au scraping de contenus en ligne est une pratique répandue chez certains acteurs de l’IA pour trouver des réponses, mais il a déjà posé des problèmes juridiques lorsque des sites ont interdit cette pratique.

Plus largement, ce type d’incident rappelle que les conversations avec des chatbots ne sont pas totalement privées et que l’utilisateur a peu de contrôle sur la destination finale des données saisies. Des questions similaires sont apparues dans d’autres affaires, notamment lorsque des autorités judiciaires ont demandé l’accès à des historiques de conversation.

Conseils pratiques

  • Eviter de partager des informations sensibles (coordonnees, numéros, informations médicales ou juridiques) dans les prompts.
  • Considérer les chatbots comme des outils publics du point de vue de la confidentialité; ne pas les remplacer par des conversations personnelles ou thérapeutiques sans précaution.
  • Suivre les communiqués officiels des fournisseurs d’IA pour connaître les correctifs et les politiques de gestion des données.

OpenAI dit avoir corrigé le bug, mais certains observateurs restent prudents tant que les pratiques de collecte et d’utilisation de données ne sont pas totalement transparentes.

Auteur
Henri
Rédacteur invité expert tech.

Articles liés

Neurones artificiels ioniques : vers des puces d'IA plus petites et plus économes

Neurones artificiels ioniques : vers des puces d'IA plus petites et plus économes

Neurones artificiels ioniques : vers des puces d'IA plus petites et plus economes Des chercheurs de l'USC Viterbi School of Engineering et de la School of Advanced Computing ont développé des neurones artificiels qui reproduisent le comportement electrochimique des cellules cerebrales. Basée sur le mouvement d'ions et non d'electrons, cette approche pourrait permettre des puces […]

LinkedIn utilisera les données des utilisateurs européens pour entraîner son IA – comment s'en protéger

LinkedIn utilisera les données des utilisateurs européens pour entraîner son IA – comment s'en protéger

LinkedIn utilisera les données des utilisateurs européens pour entraîner son IA – comment s'en protéger LinkedIn a annoncé qu'il mettra à jour ses conditions d'utilisation le lundi 3 novembre pour autoriser l'utilisation des données de ses internautes européens afin d'entraîner son intelligence artificielle générative. La plateforme, présente dans 200 pays, dit vouloir ainsi « améliorer votre […]