Accord AWS – OpenAI à 38 milliards : ce que cela change pour le développement de l'IA

Accord AWS – OpenAI à 38 milliards : ce que cela change pour le développement de l'IA

7 novembre 2025

Accord AWS – OpenAI à 38 milliards : ce que cela change pour le développement de l’IA

A retenir

  • OpenAI s’est associé à Amazon Web Services (AWS) pour soutenir ses travaux sur l’intelligence artificielle générale (AGI).
  • L’accord est évalué à 38 milliards de dollars et court sur sept ans, avec une entrée en vigueur immédiate selon AWS.
  • La nouvelle a été bien accueillie par les marchés et a poussé l’action Amazon à des niveaux records.

Un partenariat stratégique pour l’infrastructure

OpenAI a conclu un partenariat pluriannuel avec AWS qui lui donne accès à l’infrastructure et aux ressources informatiques du fournisseur de cloud. L’accord, évalué à 38 milliards de dollars, doit s’étendre sur les sept prochaines années et, d’apres AWS, entre en vigueur « immédiatement ».

Concrètement, OpenAI pourra exploiter des centaines de milliers de puces Nvidia GB200 et GB300 déployées sur les clusters de données d’Amazon pour ses processus de formation et d’inférence de modèles.

Une nouvelle liberté vis-a-vis de Microsoft

La signature intervient peu de temps après la finalisation de la transformation d’OpenAI en organisation à but non lucratif dotée d’une filiale à but lucratif. Cette nouvelle structure offre à OpenAI une plus grande marge de manoeuvre dans ses partenariats cloud.

Le contrat révisé entre OpenAI et Microsoft permet désormais à OpenAI de s’associer avec n’importe quel fournisseur de cloud. En parallèle de l’accord avec AWS, OpenAI aurait aussi conclu un partenariat avec Google pour accéder à ses ressources cloud.

Un gain majeur pour Amazon

Pour AWS, l’accord constitue une avancée importante dans l’ambition d’Amazon de devenir le principal fournisseur de services cloud pour les projets d’IA à grande echelle. Selon Reuters, l’annonce a porté le cours de l’action Amazon à un niveau record le jour de la publication.

Dans son billet de blog, AWS souligne son experience dans l’exploitation d’infrastructures d’IA a grande echelle et cite des clusters de plus de 500 000 puces, affirmant que la combinaison du leadership cloud d’AWS et des avancées d’OpenAI profitera aux utilisateurs de ChatGPT et d’autres services.

Acces aux modèles et services

AWS a annoncé plus tôt que les modèles a poids ouvert d’OpenAI, gpt-oss-120b et gpt-oss-20b, ont été ajoutés à Amazon Bedrock. Ces modèles sont ainsi accessibles aux clients AWS qui souhaitent construire des modèles personnalisés pour des taches comme le codage ou l’analyse scientifique.

Des besoins énergétiques en forte hausse

La course a l’IA augmente fortement la demande en energie. En septembre, OpenAI a annoncé l’ouverture de cinq nouveaux centres de donnees aux Etats-Unis, destinés a fournir jusqu’a sept gigawatts d’energie au total. Ces capacités représentent plus de la moitié de l’approvisionnement cible que l’entreprise vise a obtenir d’ici la fin de l’annee dans le cadre du projet Stargate, lance en janvier aux cotes de l’administration Trump, d’Oracle, de SoftBank et du fonds emirati MGX.

Pour soutenir ces besoins, de nombreuses entreprises investissent massivement dans les GPU et la construction de nouveaux centres de donnees.

Nvidia, dominance et options de substitution

Les investissements massifs dans les GPU ont largement profite a Nvidia, qui s’est impose comme l’acteur dominant du marche et est devenue la societe la plus riche du monde selon les valuations citees.

Pour reduire sa dependance a Nvidia, OpenAI envisage de commencer a produire ses propres puces courant l’annee prochaine, en partenariat avec le fabricant americain Broadcom.

Perspectives

  • Le partenariat AWS-OpenAI renforce la concurrence entre les grands acteurs cloud autour de l’IA a grande echelle.
  • Les changements structurels chez OpenAI ouvrent la porte a des collaborations multiplateformes.
  • La question de l’approvisionnement en energie et des chaines d’approvisionnement en semi-conducteurs restera decisive pour le rythme des developments.
Auteur
Henri
Rédacteur invité expert tech.

Articles liés

Neurones artificiels ioniques : vers des puces d'IA plus petites et plus économes

Neurones artificiels ioniques : vers des puces d'IA plus petites et plus économes

Neurones artificiels ioniques : vers des puces d'IA plus petites et plus economes Des chercheurs de l'USC Viterbi School of Engineering et de la School of Advanced Computing ont développé des neurones artificiels qui reproduisent le comportement electrochimique des cellules cerebrales. Basée sur le mouvement d'ions et non d'electrons, cette approche pourrait permettre des puces […]

LinkedIn utilisera les données des utilisateurs européens pour entraîner son IA – comment s'en protéger

LinkedIn utilisera les données des utilisateurs européens pour entraîner son IA – comment s'en protéger

LinkedIn utilisera les données des utilisateurs européens pour entraîner son IA – comment s'en protéger LinkedIn a annoncé qu'il mettra à jour ses conditions d'utilisation le lundi 3 novembre pour autoriser l'utilisation des données de ses internautes européens afin d'entraîner son intelligence artificielle générative. La plateforme, présente dans 200 pays, dit vouloir ainsi « améliorer votre […]