« La France est-elle dans le déni des dangers de l’IA ? » Ce thème était au cœur de la conférence de presse organisée par l’association Pause IA, mardi 10 septembre, à Paris. La perspective de la tenue d’un sommet international sur l’intelligence artificielle (IA) dans la capitale française, les 10 et 11 février 2025, suscite une mobilisation des militants les plus préoccupés par l’avenir de l’intelligence artificielle. « Sécurité de l’IA »ont le sentiment de ne pas être entendus. Les responsables français sont “trop optimiste”accuse le président de la branche française de Pause IA, Maxime Fournes, un trentenaire ancien ingénieur en IA dans la finance, à Londres.
Dans un « contre-expertise » Publié mardi, Pause AI critique le rapport de la Commission AI remis au gouvernement en mars pour« ignorant les avertissements de nombreux experts sur les risques existentiels » de l’IA, qui « Cela pourrait conduire à l’extinction de l’humanité ou à des dommages catastrophiques »par « la création d’une IA incontrôlable ou non conforme aux valeurs humaines » Ou « utilisation malveillante pour concevoir des armes biologiques ou des cyberattaques dévastatrices ».
Selon l’association, le président Emmanuel Macron et la commission s’appuient également trop sur les conseils de représentants d’entreprises d’IA, comme Yann LeCun, de Meta (maison mère de Facebook), Arthur Mensch, de Mistral AI, ou Cédric O, ancien secrétaire d’État devenu conseiller et actionnaire de Mistral – ce dernier a été accusé de conflit d’intérêts, mais la Haute Autorité pour la transparence de la vie publique l’a déclaré en juin, “qu’aucun élément ne nous permet de conclure” que les réserves exprimées quant à son passage dans le secteur privé ont été ignorées.
Mettre l’IA en « pause »
Organisation internationale créée en 2023 par un ingénieur néerlandais, Pause IA a organisé, en mai, de petites manifestations (moins de dix participants à Paris) pour réclamer un traité international suspendant la recherche la plus avancée en matière d’IA. Elle s’inscrit dans l’esprit des grandes pétitions lancées en 2023 pour mettre l’IA au ” casser “ ou pour faire « risques d’extinction » une priorité, « comme les pandémies ou la guerre nucléaire ». Des thèmes qui seront très présents lors du AI Security Summit de Londres, en novembre 2023.
Le Future of Life Institute (FLI), le groupe de réflexion américain à l’origine de la pétition pour une ” casser “a nommé un représentant à Paris et organise une série de « Petits déjeuners sur la sécurité de l’IA ». « Le sommet de Paris cherche à détourner l’attention de la sécurité » Et « L’IA est considérée comme un véhicule du nationalisme économique », avait déploré en juillet l’invité Stuart Russell, un chercheur américain qui fut un pionnier dans la dénonciation des « risques existentiels » de l’IA. « Partout, le thème de la sécurité de l’IA est en recul, mais la France remporte la palme »affirme Connor Leahy de la très alarmiste start-up ConjectureAI, présente à Londres.
Il vous reste 34.88% de cet article à lire. Le reste est réservé aux abonnés.