OpenAI met en garde contre les risques liés aux navigateurs web pilotés par l’IA
L’idée d’un navigateur web géré par une intelligence artificielle, capable de naviguer, de lire les emails et d’agir à la place de l’utilisateur, est séduisante, mais sa sécurisation représente un défi complexe. OpenAI a publié une note technique ce lundi, reconnaissant que la lutte contre les attaques par « injection de prompt » est un combat continu, semblable à la gestion du spam ou du phishing, plutôt qu’un simple problème informatique résoluble par une mise à jour. Cette déclaration appelle à la prudence quant à l’utilisation du « mode Agent » de son navigateur ChatGPT Atlas, lancé en octobre dernier.
Le talon d’Achille des assistants autonomes
Le problème central réside dans la nature même des agents d’IA. Pour être utiles, ils doivent traiter des données externes (pages web, emails, documents) qui peuvent contenir des pièges. L’attaque par injection de prompt consiste à dissimuler des instructions malveillantes dans ces contenus, parfois de manière invisible. L’IA, en lisant la page pour effectuer sa tâche, risque d’interpréter ces données comme des ordres prioritaires et de s’écarter de sa mission initiale.
Pour illustrer ce risque, OpenAI a partagé une démonstration. Dans ce scénario, un utilisateur demande à l’agent de gérer ses emails pour rédiger une réponse automatique d’absence. L’IA tombe sur un courriel piégé contenant une instruction cachée lui ordonnant de rédiger une lettre de démission. L’agent, trompé, s’exécute et envoie la démission à la place du message d’absence. Cet exemple souligne la nécessité d’une surveillance humaine.
Une défense proactive basée sur la simulation
Face à ce risque, OpenAI déploie une stratégie de défense sophistiquée : le red teaming automatisé. L’entreprise utilise une IA entraînée spécifiquement pour attaquer ses propres systèmes. Ce modèle « hacker » teste des milliers de scénarios virtuels pour contourner les sécurités de ChatGPT Atlas. L’avantage est que l’attaquant virtuel possède une vision privilégiée du fonctionnement interne de l’agent, lui permettant de découvrir des failles complexes plus rapidement.
Cette approche a déjà permis à OpenAI de corriger des vulnérabilités inédites avant qu’elles ne soient exploitées. Cependant, des experts en cybersécurité rappellent que le risque zéro n’existe pas. Les navigateurs agents combinent une autonomie modérée avec un accès élevé aux données sensibles, ce qui exige une vigilance constante. OpenAI recommande aux utilisateurs de rester précis dans leurs demandes, d’éviter de donner « carte blanche » à l’IA pour des tâches critiques, et de toujours vérifier les demandes de confirmation avant une action irréversible.
La sécurité des navigateurs IA est donc un enjeu majeur, nécessitant une approche proactive et une vigilance accrue de la part des utilisateurs.




