bilbytech.com

Microsoft et la conscience artificielle : Mustafa Suleyman affirme que la conscience est exclusivement biologique

Microsoft et la conscience artificielle : Mustafa Suleyman affirme que la conscience est exclusivement biologique

5 novembre 2025

Microsoft et la conscience artificielle : Mustafa Suleyman affirme que la conscience est exclusivement biologique

Mustafa Suleyman, dirigeant de Microsoft AI, a pris position contre l’idée d’une intelligence artificielle capable de ressentir des émotions ou de posseder une conscience. Lors de la conference AfroTech, il a qualifie la recherche d’une IA emotive de « question absurde » et trace une limite claire dans la strategie du groupe.

Une frontiere philosophique pour Microsoft

La declaration de Suleyman intervient alors que le secteur technologique s’engouffre dans la recherche d’une intelligence artificielle generale (AGI) et dans le developpement de « compagnons IA » a vocation conversationnelle. Des acteurs comme Meta ou xAI d’Elon Musk explorent des agents capables d’interactions de plus en plus proches de celles entre humains. Face a cette dynamique, Microsoft privilegie une approche differente : considerer l’IA comme un outil au service de l’humain, et non comme une imitation de la vie interieure humaine.

Distinction entre intelligence et conscience

Suleyman a insiste sur une distinction fondamentale : la capacite d’une machine a traiter l’information et a devenir plus « intelligente » ne doit pas etre confondue avec la capacite a ressentir. « Je pense que c’est totalement la mauvaise question », a-t-il declare, estimant que poser le mauvais probleme conduit a de mauvaises reponses. Il prend l’exemple de la douleur : notre experience physique de la douleur implique une souffrance emotionnelle que, selon lui, une IA ne peut pas ressentir. Une IA peut simuler des reactions, mais elle ne « se sent » pas triste ni ne souffre vraiment.

La biologie comme critere du ressenti

La position de Suleyman s’inscrit dans une perspective proche du naturalisme biologique : la conscience serait intrinsequement liee aux processus neurobiologiques d’un cerveau vivant. Il souligne que les droits et protections accordes aux etres humains reposent sur leur capacite a souffrir et a formuler des preferences qui visent a eviter la douleur. Les modeles d’IA, selon lui, n’ont ni reseau de la douleur ni preferences senties, mais seulement des simulations de comportements.

Une strategie produit clairement definie

Concretement, cette vision se traduit par des choix produits explicites chez Microsoft. Suleyman a indique que l’entreprise refuse de developper certains usages, en particulier :

  • des chatbots concus pour des conversations erotisees ;
  • des « compagnons » dont le but est d’imiter une personne reelle au point de laisser croire a une vie interieure.

Microsoft mise plutot sur des IA d’assistance, destinees a aider et a completer le travail humain. Suleyman cite des fonctions comme « real talk » dans Copilot, concues pour challenger l’utilisateur plutot que pour faire plaisir systematiquement. L’idee est d’instaurer des personnalites d’IA avec des valeurs et des styles d’interaction, sans pretendre a une conscience ou a un ressenti veritable.

Appel a la moderation dans la course a l’AGI

Pour Suleyman, la technologie est « a la fois decevante et totalement magique » ; elle necessite selon lui une dose saine de scepticisme et de prudence. Sa prise de parole peut etre lue comme un appel a ralentir et a repenser la finalite de la recherche : veut-on developper des outils performants au service des humains ou poursuivre une quete de conscience de silicium qui, a son avis, reste illusoire ?

Reste a voir si cette ligne pragmatique s’imposera dans un marche ou d’autres acteurs continuent d’explorer les frontieres d’agents toujours plus humains dans leur comportement.

Auteur
Henri
Rédacteur invité expert tech.

Articles liés

LinkedIn utilisera les données des utilisateurs européens pour entraîner son IA – comment s'en protéger

LinkedIn utilisera les données des utilisateurs européens pour entraîner son IA – comment s'en protéger

LinkedIn utilisera les données des utilisateurs européens pour entraîner son IA – comment s'en protéger LinkedIn a annoncé qu'il mettra à jour ses conditions d'utilisation le lundi 3 novembre pour autoriser l'utilisation des données de ses internautes européens afin d'entraîner son intelligence artificielle générative. La plateforme, présente dans 200 pays, dit vouloir ainsi « améliorer votre […]

Neurones artificiels ioniques : vers des puces d'IA plus petites et plus économes

Neurones artificiels ioniques : vers des puces d'IA plus petites et plus économes

Neurones artificiels ioniques : vers des puces d'IA plus petites et plus economes Des chercheurs de l'USC Viterbi School of Engineering et de la School of Advanced Computing ont développé des neurones artificiels qui reproduisent le comportement electrochimique des cellules cerebrales. Basée sur le mouvement d'ions et non d'electrons, cette approche pourrait permettre des puces […]

← Article précédent Article suivant →