ChatGPT fait l’objet d’un grand débat concernant ses limitations face à la perspective d’être considéré comme une intelligence artificielle générale (AGI). Rodney Brooks, un spécialiste de l’IA, met en avant ses doutes quant à l’intelligence même de ce modèle de langage. Son analyse suggère que ChatGPT est encore très loin d’atteindre le stade d’AGI.
Les modèles de langage utilisés dans l’intelligence artificielle suscitent un débat animé. Les chercheurs, experts en consultation IT et autres spécialistes en IA, se concertent sur le cas de ChatGPT. Certains sont fascinés par les progrès réalisés vers une forme d’intelligence artificielle générale, tandis que d’autres experts soulignent ses limites.
Rodney Brooks, un spécialiste de l’IA et de la robotique, met en doute les capacités réelles d’intelligence de ChatGPT. Il souligne par ailleurs qu’aucun des modèles actuels n’est suffisamment performant pour atteindre le stade d’intelligence artificielle générale (AGI). Ses impressions sont relatées dans cet article avec les défis associés aux AGI.
Un modèle de langage intelligent, mais seulement en apparence
Rodney Brooks a affirmé que, malgré la tendance des observateurs à surestimer le potentiel de l’IA, ChatGPT est encore loin d’être intelligent. Bien sûr, ce modèle de langage peut générer du contenu pertinent et « humain ». Cependant, selon le spécialiste, ChatGPT ne peut pas vraiment comprendre la signification réelle des mots ou des concepts.
Ce modèle de langage ne possède pas de modèle de représentation du monde réel et est détaché de celui-ci. Ses aptitudes se limitent à la corrélation dans le contexte du langage, donnant ainsi l’apparence de l’intelligence.
Il souligne particulièrement la différence fondamentale entre l’intelligence des modèles de langage actuels et l’intelligence proprement dite d’un être humain. D’après ses dires :
On voit une personne faire quelque chose, et immédiatement on comprend les autres choses que cette personne peut faire, et on peut établir rapidement un jugement, mais ce modèle humain qui consiste à établir des généralisations de compétences par rapport à une performance ne s’applique pas aux systèmes d’IA.
Cette prise de conscience pourrait être un tournant essentiel pour optimiser ChatGPT et le rapprocher d’un modèle d’AGI.
Les limites de ChatGPT face à la perspective d’AGI
Le modèle GPT-4 est la version améliorée de ChatGPT. Comparée à son prédécesseur, le GPT-3.5, cette version permet de produire des contenus beaucoup plus pertinents et impressionnants. Ce qui semble indiquer une avancée vers l’AGI tant convoitée.
Pour vérifier ces faits, Sebastien Bubeck, chercheur chez Microsoft, a testé la capacité du GPT-4 à répondre à certains critères d’intelligence. D’après lui, ce modèle est doté de capacités de raisonnement, peut résoudre des problèmes et comprendre des idées complexes.
Toutefois, il ne peut pas planifier des actions ultérieures de manière autonome. De plus, ses aptitudes à apprendre de son expérience se limitent au contexte de conversation. Malgré la création de AutoGPT, un programme destiné à transcender ces limitations, les résultats n’ont pas été fructueux.
Rodney Brooks ajoute par ailleurs que les réponses fournies par ChatGPT ne sont pas fiables à 100 %. Il affirme, selon son expérience en codage informatique assisté par l’IA, que cette dernière répond toujours de manière très confiante et convaincante :
Mais la moitié du temps, c’est complètement faux. Ça ne fonctionne pas.
Voilà un autre point qui démontre que ChatGPT nécessite encore plusieurs améliorations avant d’être considéré comme une AGI.
Cet article vous a-t-il été utile ?
Note moyenne 0 / 5. Nombre de votes 0