(BigStock Image)
Note de l’éditeur : Quatre mois après la sortie de son chatbot ChatGPT, OpenAI a dévoilé sa dernière technologie d’intelligence artificielle, GPT-4 , mardi. Oren Etzioni, ancien PDG de l’Allen Institute for AI , directeur technique au AI2 Incubator , et professeur émérite à l’Université de Washington, partage ses réflexions.
GPT-4 est arrivé.
Il est substantiellement plus complet et puissant que ChatGPT, qui a déjà conquis le monde. GPT-4 peut diagnostiquer des patients, écrire des logiciels, jouer aux échecs, rédiger des articles, et bien plus encore.
Le mois dernier, Sam Altman, PDG d’OpenAI, a tweeté : « une nouvelle version de la loi de Moore qui pourrait bientôt commencer : la quantité d’intelligence dans l’univers double tous les 18 mois. »
Dans les années à venir, nous verrons GPT-4 et ses équivalents avoir un impact sur notre économie de l’information , emplois , éducation , politique , et même sur notre compréhension de ce que signifie être intelligent et créatif. Parler d’un modèle GPT comme d’une JPEG floue d’internet minimise à la fois ses capacités actuelles et son potentiel futur.
Cependant, il est important de souligner que la technologie a certaines limitations inhérentes à son « ADN familial ».
GPT-4 a certains problèmes superficiels.
- Il est contraint par un ensemble étendu de « garde-fous » créés par des humains qui cherchent à l’empêcher d’être offensant ou excessif.
- Il ne met pas à jour ses connaissances en temps réel.
- Sa maîtrise des langues autres que l’anglais est limitée.
- Il n’analyse pas l’audio ou la vidéo.
- Il fait encore des erreurs arithmétiques qu’une calculatrice éviterait.
Cependant, aucun de ces problèmes n’est inhérent à l’approche. À ceux qui s’y fixent, je dirais : « ne mordez pas mon doigt, regardez où je pointe ». Tous ces problèmes seront surmontés dans GPT-5 ou dans une version ultérieure d’OpenAI ou d’un concurrent.
LIRE ÉGALEMENT : Microsoft confirme que le chatbot de recherche basé sur l’IA de Bing fonctionne avec le nouveau GPT-4 d’OpenAI
Ce qui est plus difficile, c’est que GPT-4 n’est toujours pas fiable. Comme ChatGPT, il « hallucine », invente des faits et les étaye même avec des sources inventées. Pis encore, il le fait avec la confiance effrontée d’un menteur invétéré.
Comme ChatGPT, il peut être incohérent dans ses réponses lorsqu’on le questionne à plusieurs reprises sur le même sujet. Cela arrive parce qu’il n’a pas un ensemble de croyances et de valeurs sous-jacentes ; il répond aux entrées humaines en fonction d’une combinaison obscure de ses données d’entraînement et de son objectif formulé mathématiquement interne.
Pour ces raisons, il présente également des biais omniprésents ; il serait imprudent de faire confiance à ses réponses sans vérification minutieuse. Les programmeurs humains qui utilisent un outil de type GPT, appelé GitHub CoPilot , pour produire des fragments de code logiciel, examinent et testent soigneusement le logiciel avant de l’intégrer à leurs programmes écrits à la main. Néanmoins, chaque génération de la technologie fait moins d’erreurs, et nous pouvons nous attendre à ce que cette tendance se poursuive.
En raison de ces progrès rapides et de ce succès sans précédent, il est important de souligner que GPT-4 et la gamme complète des technologies d’IA similaires (parfois appelées « modèles fondamentaux » ou « IA générative ») ont des limitations fondamentales qui ne seront pas surmontées de sitôt.
Contrairement aux humains, les modèles GPT n’ont pas de corps. Les modèles reposent sur des informations de seconde main dans leurs entrées, ce qui peut être déformé ou incomplet. Contrairement aux humains, les modèles GPT peuvent simuler l’empathie, mais ne la ressentent pas. Bien que l’empathie simulée ait ses utilités (pensez à un adolescent qui a besoin d’une épaule pour pleurer à 2 h du matin dans le Kansas rural), ce n’est pas la vraie chose.
Bien que les modèles GPT puissent sembler infiniment créatifs et surprenants dans leurs réponses, ils ne peuvent pas concevoir des artefacts complexes. Le moyen le plus simple de le voir est de poser la question suivante : Quels composants de GPT-4 ont été conçus par un modèle génératif ? L’état de l’art en IA nous apprend que GPT-4 a été construit en mettant à l’échelle et en tinkérant avec des modèles et des méthodes conçus par des humains, notamment Google’s BERT et AI2’s ELMo . Steven Wolfram a fourni un aperçu accessible de la technologie ici .
Quels que soient les détails, il est clair que la technologie est loin d’être capable de se concevoir elle-même. De plus, afin de concevoir un chatbot, vous devez commencer par formuler l’objectif, les données d’entraînement sous-jacentes, l’approche technique, des sous-objectifs particuliers, et plus encore. Ce sont des endroits où l’expérimentation et l’itération sont requises.
Vous devez également acquérir les ressources pertinentes, embaucher les personnes appropriées, et plus encore. Bien sûr, tout cela a été fait par les talents d’OpenAI. Comme je l’ai argumenté dans le MIT Technology Review , formuler et exécuter avec succès de telles entreprises reste une capacité strictement humaine.
Le plus important, les modèles GPT sont des outils qui fonctionnent à notre demande. Bien qu’ils soient remarquablement puissants, ils ne sont pas autonomes . Ils répondent à nos commandes.
Considérez l’analogie des voitures autonomes. Au cours des années à venir, les voitures autonomes deviendront plus polyvalentes et de plus en plus sûres, mais les voitures ne détermineront pas la destination vers laquelle nous conduisons – cette décision appartient à l’humain. De même, c’est à nous de décider comment utiliser les modèles GPT – pour l’édification ou la désinformation.
Le grand Pablo Picasso a dit avec tristesse : « Les ordinateurs sont inutiles. Ils ne vous donnent que des réponses. »
Bien que les modèles GPT soient loin d’être inutiles, nous sommes encore ceux qui formulent les questions fondamentales et qui évaluent les réponses. Cela ne changera pas de sitôt.