Featured image of post Commentaire: Le GPT-4 de OpenAI a quelques limites qui sont correctes — et certaines qui ne sont pas

Commentaire: Le GPT-4 de OpenAI a quelques limites qui sont correctes — et certaines qui ne sont pas

Note de l’éditeur: Quatre mois après la sortie de son chatbot ChatGPT, OpenAI a dévoilé sa dernière technologie d'intelligence artificielle, GPT-4, mardi. Oren Etzioni, ancien PDG de l'Institut Allen pour... En savoir plus

image

(BigStock Image) Note de l’éditeur: Quatre mois après la sortie de son chatbot ChatGPT, OpenAI a dévoilé sa dernière technologie d’intelligence artificielle, GPT-4 Mardi. Oren Etzioni, ancien PDG de l’Institut Allen pour l’IA , un directeur technique de l’incubateur AI2 , et professeur émérite à l’Université de Washington, propose ses pensées.

GPT-4 est arrivé.

Il est beaucoup plus complet et puissant que ChatGPT, qui a déjà pris le monde par la tempête. GPT-4 peut diagnostiquer les patients, écrire des logiciels, jouer les échecs, les articles d’auteur, et bien plus encore.

Le mois dernier, OpenAI CEO Sam Altman tweeté : « une nouvelle version de la loi de Moore qui pourrait commencer bientôt : la quantité d’intelligence dans l’univers double tous les 18 mois. ”

Dans les prochaines années, nous verrons le GPT-4 et son impact sonore sur notre économie de l ’ information , emplois , Éducation , politique , et même notre compréhension de ce que cela signifie être intelligent et créatif. Referring to a GPT model as a blurry JPEG de l’Internet sous-indique ses capacités actuelles et son potentiel futur.

Cependant, il est important de souligner que la technologie a certaines limites inhérentes à son «ADN familial. ”

GPT-4 a quelques problèmes de surface.

  • Il est contraint par un vaste ensemble de « garde-corps» de fabrication humaine qui cherchent à l’empêcher d’être offensant ou hors du mur.
  • Il ne met pas à jour ses connaissances en temps réel.
  • Son commandement des langues autres que l’anglais est limité.
  • Il n’analyse pas l’audio ou la vidéo.
  • Il fait encore des erreurs arithmétiques qu’un calculateur éviterait. Toutefois, aucun de ces problèmes n ’ est inhérent à l ’ approche. À ceux qui les fixent, je dirais: «Ne me mords pas le doigt, regarde où je pointe.» Tous ces problèmes seront surmontés en GPT-5 ou dans une version ultérieure d’OpenAI ou d’un concurrent.

Plus difficile est le fait que GPT-4 n’est toujours pas digne de confiance. Comme ChatGPT, il «hallucine», faisant des faits et même soutenant ces faits avec des sources de composition. Pire, cela le fait avec la confiance d’un menteur habituel.

Comme ChatGPT, il peut être incohérent dans ses réponses lorsqu’il se pose plusieurs questions sur la même question. Cela se produit parce qu’il n’a pas un ensemble de croyances et de valeurs sous-jacentes — au lieu de cela il répond aux apports humains basés sur une combinaison obscure de ses données de formation et son objectif interne et mathématiquement formulé.

Pour ces raisons, il expose également des préjugés omniprésents — vous seriez insensé de faire confiance à ses réponses sans vérification minutieuse. Programmeurs humains qui utilisent un outil de style GPT, appelé GitHub CoPilot , pour produire des filets de code logiciel, examiner attentivement et tester le logiciel avant de l’intégrer dans leurs programmes manuscrits. Néanmoins, chaque génération de la technologie fait moins d’erreurs, et nous pouvons attendre que cette tendance se poursuive.

En raison de ce progrès rapide et d’un succès sans précédent, il est important de souligner que le GPT-4 et la gamme complète de technologies de l’IA similaires (parfois appelées «modèles de fondation» ou «IA générique») ont des limites fondamentales qui ne seront pas surmontées dans un avenir prévisible.

Contrairement aux humains, les modèles GPT n’ont pas de corps. Les modèles reposent sur des informations d’occasion dans leur entrée, qui peuvent être déformées ou incomplètes. Contrairement aux humains, les modèles GPT peuvent simuler l’empathie mais ne le sentent pas. Alors que l’empathie simulée a ses usages (pensez à un adolescent qui a besoin d’une épaule pour pleurer à 2 heures dans le Kansas rural), ce n’est pas la vraie chose.

Si les modèles GPT peuvent sembler infiniment créatifs et surprenants dans leurs réponses, ils ne peuvent concevoir des objets complexes. Peut-être la meilleure façon de voir cela est de poser la question: Quels composants de GPT-4 ont été conçus par un modèle génétique? L’état de l’art dans l’IA nous enseigne que GPT-4 a été construit par l’écaillage et l’étainage avec des modèles et des méthodes conçus par l’homme qui incluent Google BERT et AI2 ELMo . Steven Wolfram a fourni un aperçu accessible de la technologie ici. .

Peu importe les détails, il est clair que la technologie est des années claires de pouvoir se concevoir. De plus, pour concevoir un chatbot, vous devez commencer par la formulation de l’objectif, les données de formation sous-jacentes, l’approche technique, des sous-objectifs particuliers, et plus encore. Ce sont des endroits où l’expérimentation et l’itération sont nécessaires.

Vous devez également acquérir les ressources pertinentes, embaucher les personnes appropriées, et plus encore. Bien sûr, tout cela a été fait par les humains talentueux à OpenAI. Comme je l’ai fait valoir MIT Technology Review , formuler et exécuter avec succès ces efforts reste une capacité distincte de l’homme.

Plus important, les modèles GPT sont des outils qui fonctionnent à notre cheville. Bien que remarquablement puissants, ils ne sont pas autonome . Ils répondent à nos ordres.

Considérez l’analogie avec les voitures autonomes. Au cours des années à venir, les auto-conduites deviendront plus polyvalentes et de plus en plus sûres, mais les voitures ne détermineront pas la destination à laquelle nous conduisons - cette décision appartient à l’homme. De même, c’est à nous de décider comment utiliser les modèles GPT — pour l’édification ou pour la désinformation.

Le grand Pablo Picasso a dit, « Les ordinateurs sont inutiles. Ils ne vous donnent que des réponses. ”

Si les modèles GPT sont loin d’être inutiles, nous sommes toujours ceux qui formulent les questions fondamentales et évaluent les réponses. Ça ne changera pas bientôt.