Ll’intelligence artificielle (IA) suscite un émerveillement comparable à celui de la révolution industrielle du XIXee siècle. Mais les appels à la prudence se multiplient, comme en témoignent les initiatives du projet de loi visant à réglementer le développement et l’utilisation de l’IA en Californie ou la récente initiative du gouvernement français visant à mesurer son impact environnemental. Ces préoccupations illustrent des questions fondamentales sur notre rapport à la technologie, notre fierté et notre volonté de croire au progrès illimité.
La capacité des humains à transformer leur environnement grâce à la technologie et au langage (via les histoires qui structurent notre vision du monde) définit leur condition. Cette liberté se manifeste dans la volonté constante de repousser les limites du possible, comme l’illustrent les recherches en intelligence artificielle et l’émergence d’applications comme ChatGPT (et sa récente amélioration incrémentale o1), Gemini ou Llama.
Aussi réjouissantes que angoissantes, ces évolutions sont parfois plus fantasmées que remises en question. Car si les techniques de base du deep learning – branche de l’IA où les machines apprennent à partir de données – sont connues depuis les années 1950, l’apparition récente d’applications concrètes comme les grands modèles de langage (LLM, pour grand modèle de langages), entraîné sur des quantités massives de textes depuis 2018, a surpris le grand public. Mais pas les chercheurs en IA, qui connaissaient déjà son potentiel.
La surprise vient de l’engouement du public pour ces systèmes. Après l’échec du chatbot Tay de Microsoft il y a quelques années et les critiques envers Galactica, l’outil de rédaction scientifique de Meta, ChatGPT a surpris en connaissant un succès fulgurant dès son lancement. Cet engouement a sans doute été motivé par sa simplicité d’utilisation, sa capacité à apporter des réponses cohérentes et un marketing efficace centré sur le potentiel d’usage.
Pour Yann Le Cun, responsable de l’intelligence artificielle chez Meta et père du deep learning (apprentissage profond) – un sous-domaine du deep learning qui utilise des réseaux de neurones artificiels pour analyser et interpréter des données complexes – interviewée dans le podcast « Do It Yourself », cette maîtrise du langage par les LLM peut paraître impressionnante, mais elle repose en réalité sur des modèles statistiques simples et ne reflètent la véritable intelligence.
Il vous reste 55,12% de cet article à lire. Le reste est réservé aux abonnés.
Jorge Martin a encore régné en maître sur l'exigeant circuit de Mandalika, en Indonésie, ce dimanche 29 septembre. L'Espagnol est…
Quel charme ! Avec son nouveau roman jeunesse, Gaël Aymon sait nous embarquer dans une belle histoire à la fois…
Certains jours, elle « a l’impression de mâcher de l’air épais ». Parfois, le « brouhaha continu » lui donne…
Soulagé après le court succès face au MHR (28-27), le deuxième ligne Arthur Iturria est revenu, après le match, sur…
En plein procès pour viol de Mazan, la presse fait état de nouvelles révélations sur l'affaire de soumission chimique dont…
ENQUÊTE - À contre-courant de la finance traditionnelle, cette branche méconnue du monde des affaires, dictée par la charia, affiche…