Google alerte: des malwares 'auto-modifiants' propulsés par l'IA émergent

Google alerte: des malwares 'auto-modifiants' propulsés par l'IA émergent

10 novembre 2025

Google alerte: des malwares ‘auto-modifiants’ propulsés par l’IA émergent

Le Google Threat Intelligence Group (GTIG) signale l’apparition de nouvelles familles de logiciels malveillants qui exploitent des modèles de langage et d’autres outils d’intelligence artificielle générative. Selon les chercheurs internes, les acteurs malveillants n’utilisent plus l’IA seulement pour gagner en productivite: ils la deploient pour creer des malwares capables de se modifier en temps reel pendant une attaque.

Des malwares qui mutent pendant l’attaque

Ces programmes communiquent avec des services d’IA pendant qu’ils sont actifs sur la machine cible. Ils peuvent ainsi changer leur code, generer de nouvelles fonctions et adapter leur comportement a l’environnement – tactique que Google qualifie d' »auto-modification just-in-time ». Le resultat: un logiciel rarement identique d’une intrusion a l’autre, donc plus difficile a detecter et a analyser que les malwares traditionnels dont le code reste fixe.

Exemples identifiés

  • PromptFlux – Un malware qui s’appuyait sur Gemini, l’IA generative de Google, pour produire automatiquement des variantes de son code a chaque lancement et eviter les antivirus. PromptFlux etait en phase de test et n’a pas cause de dommages importants; Google a bloque son acces a l’API Gemini une fois detecte.
  • PromptSteal / LameHug – Se faisant passer pour un generateur d’images, ce logiciel malveillant communique avec Hugging Face pour creer des commandes ciblant le vol de donnees sensibles (identifiants, mots de passe, historiques de navigation). Il a notamment ete utilise dans des attaques russes contre des organisations ukrainiennes.
  • PromptLock – Decrit comme le premier ransomware anime par l’IA, decouvert par les chercheurs d’ESET; il genere des scripts en temps reel lors d’une intrusion.

Acteurs et dynamique du marché

Le GTIG note que des groupes soutenus par des Etats utilisent deja des malwares animees par l’IA. Parmi eux figurent plusieurs gangs russes (dont des groupes lies a des campagnes contre l’Ukraine), des acteurs nord-coreens impliques dans le vol de cryptomonnaies et des groupes iraniens utilisaient l’IA pour le phishing et pour rendre leur code plus difficile a analyser.

Parallelement, de nombreux hackers independants tirent profit d’outils d’IA trouves sur des forums du dark web. Google souligne que « le marche clandestin des outils d’IA illicites s’est developpe et consolide en 2025 », ce qui abaisse la barriere d’entree pour des auteurs moins qualifies.

Reponses et risques

Google indique avoir pris des mesures proactives, comme desactiviter des comptes et bloquer l’acces aux API associees aux activites malveillantes. Les chercheurs rappellent que la capacite des malwares a se reprogrammer en temps reel represente un changement majeur dans l’exploitation de l’IA: elle rend les attaques plus imprévisibles et complique le travail des specialistes en cybersecurite. Les motivations des auteurs restent principalement financieres, et l’origine exacte de certaines operations demeure inconnue.

Points a retenir

  • Des malwares utilisent des modeles de langage pour generer ou modifier du code pendant l’attaque.
  • La tactique d' »auto-modification just-in-time » rend les logiciels malveillants plus difficiles a detecter et a analyser.
  • Des groupes etats-sponsors et des hackers independants exploitent ces techniques; un marche noir d’outils d’IA facilite leur diffusion.
  • Les fournisseurs d’IA, comme Google, prennent des mesures pour bloquer l’abus de leurs services, mais le risque evolue rapidement.
Auteur
Henri
Rédacteur invité expert tech.

Articles liés

Neurones artificiels ioniques : vers des puces d'IA plus petites et plus économes

Neurones artificiels ioniques : vers des puces d'IA plus petites et plus économes

Neurones artificiels ioniques : vers des puces d'IA plus petites et plus economes Des chercheurs de l'USC Viterbi School of Engineering et de la School of Advanced Computing ont développé des neurones artificiels qui reproduisent le comportement electrochimique des cellules cerebrales. Basée sur le mouvement d'ions et non d'electrons, cette approche pourrait permettre des puces […]

LinkedIn utilisera les données des utilisateurs européens pour entraîner son IA – comment s'en protéger

LinkedIn utilisera les données des utilisateurs européens pour entraîner son IA – comment s'en protéger

LinkedIn utilisera les données des utilisateurs européens pour entraîner son IA – comment s'en protéger LinkedIn a annoncé qu'il mettra à jour ses conditions d'utilisation le lundi 3 novembre pour autoriser l'utilisation des données de ses internautes européens afin d'entraîner son intelligence artificielle générative. La plateforme, présente dans 200 pays, dit vouloir ainsi « améliorer votre […]