OpenAI a présenté jeudi son nouveau modèle ChatGPT o1, qui représenterait une « avancée significative » car il serait capable de « raisonner » – bientôt comme un « médecin », assure le groupe américain. Mais comment un chatbot peut-il raisonner ? En faisant semblant.
ChatGPT a-t-il atteint l’âge de raison ? Son créateur, OpenAI, affirme que son « bébé » a atteint ce cap. L’entreprise américaine a annoncé jeudi 12 septembre la sortie de son nouveau modèle d’intelligence artificielle – baptisé o1 – qui aurait été entraîné à effectuer des « raisonnements complexes ».
Pour l’heure, ChatGPT o1 a surtout appris à « réfléchir avant de répondre », se réjouit OpenAI dans son communiqué. L’objectif affiché serait d’en faire un grand modèle de langage (LLM) – ou chatbot – capable de rivaliser avec le raisonnement d’un « doctorant » en mathématiques, biologie ou physique.
Des champions en probabilité, pas en raisonnement
Un gros programme ! Jusqu’à présent, les grands modèles de langage – comme ChatGPT – n’étaient pas associés à l’idée de « raisonnement », et « lorsqu’ils s’aventuraient sur ce terrain, ils étaient plutôt mauvais », explique Mark Stevenson, spécialiste en informatique et modèles de langage à l’Université de Sheffield.
Pour lui, utiliser le terme de « raison » serait de toute façon un « abus de langage ». « Il faudrait sans doute dire simulation de raisonnement, car affirmer qu’une machine peut raisonner, c’est comme soutenir qu’un sous-marin peut nager. C’est absurde », résume Nicolas Sabouret.
Maître des chaînes de pensée
Lire la suite sur FRANCE 24
Lire aussi :
Publicité Google pour l’IA : une controverse qui reflète la peur de « remplacer l’humain »
ChatGPT et droits d’auteur : le New York Times, héraut de la liberté de la presse
OpenAI : les mathématiques résistent encore à ChatGPT et à l’IA