Article de la semaine
Pourquoi cet article
Que ce soit en Ukraine ou à Gaza, l’intelligence artificielle (IA) est déjà largement présente sur les champs de bataille, note Courrier international dans son numéro 1745, intitulé “L’IA part en guerre”, à travers une sélection d’analyses publiées dans la presse internationale.
Ainsi, cet article du Zeitung d’Allemagne du Sud questionne l’usage de plus en plus massif de l’IA dans les conflits récents et la place de l’humain dans la prise de décision. Cela s’inscrit parfaitement dans la thématique conflit du programme de dernière année. Quant au dossier thématique de Courrier international, cela peut être un excellent point de départ pour un sujet oral majeur.
Si nous ne devions retenir qu’une seule citation
“Il y a encore quelque temps, il existait une ligne rouge que les chercheurs travaillant dans la recherche et le développement de l’intelligence artificielle refusaient de franchir : l’utilisation de l’IA à des fins militaires.”
En 1942, l’auteur de science-fiction Isaac Asimov définit les trois lois de la robotique. Le premier déclarait : “Un robot ne peut pas nuire à un être humain.” Comme l’a noté Zeitung d’Allemagne du Sud, cette loi n’est plus d’actualité : dans de nombreux conflits, l’IA contrôle déjà des armes qui deviennent progressivement autonomes.
Ainsi des essaims de drones militarisés « communiquer entre eux sans contact avec le commandement ». Ce qui signifie que “toutes les décisions sont prises par ‘l’intelligence’ de l’essaim”, explique le journaliste allemand. Ces « systèmes d’armes autonomes létaux » intelligents (Sala) ont déjà été utilisés par Israël dans sa lutte contre le Hamas à Gaza.
Ailleurs dans le monde, « d’autres armes autonomes sont en cours de développement ou prêtes à l’emploi : des robots terrestres ressemblant à des chiens ou transportant des animaux, Samsung travaille sur des armes à déclenchement automatique et contrôlées par l’IA… », précise Andrian Kreye.
Il n’existe toujours pas de réglementation internationale sur les armes autonomes. Si en 1997, 164 pays ont signé la Convention d’Ottawa contre les mines antipersonnel (considérée comme Sala “pas intelligent”), la tâche s’avère bien plus complexe en ce qui concerne l’IA, souligne le Zeitung d’Allemagne du Sud. En effet, la plupart des États se sont lancés dans une course aux armements intelligente et il semble difficile de revenir en arrière.
Pour de plus amples
Nous avons sélectionné trois textes publiés dans le dossier de Courrier international dédié aux usages militaires de l’IA :
Et ce qu’il ne faut pas manquer non plus cette semaine
Nous vous recommandons de lire cet article de USA aujourd’hui ce qui montre qu’un « Nationalisme chrétien » se développe dans le sillage de la campagne de Donald Trump pour l’élection présidentielle de novembre. Ce thème, déjà abordé dans une précédente Lettre de l’Educ, apparaît dans le dernier chapitre du programme de première année sur l’État et la religion.
Article de la semaine
Pourquoi cet article
Que ce soit en Ukraine ou à Gaza, l’intelligence artificielle (IA) est déjà largement présente sur les champs de bataille, note Courrier international dans son numéro 1745, intitulé “L’IA part en guerre”, à travers une sélection d’analyses publiées dans la presse internationale.
Ainsi, cet article du Zeitung d’Allemagne du Sud questionne l’usage de plus en plus massif de l’IA dans les conflits récents et la place de l’humain dans la prise de décision. Cela s’inscrit parfaitement dans la thématique conflit du programme de dernière année. Quant au dossier thématique de Courrier international, cela peut être un excellent point de départ pour un sujet oral majeur.
Si nous ne devions retenir qu’une seule citation
“Il y a encore quelque temps, il existait une ligne rouge que les chercheurs travaillant dans la recherche et le développement de l’intelligence artificielle refusaient de franchir : l’utilisation de l’IA à des fins militaires.”
En 1942, l’auteur de science-fiction Isaac Asimov définit les trois lois de la robotique. Le premier déclarait : “Un robot ne peut pas nuire à un être humain.” Comme l’a noté Zeitung d’Allemagne du Sud, cette loi n’est plus d’actualité : dans de nombreux conflits, l’IA contrôle déjà des armes qui deviennent progressivement autonomes.
Ainsi des essaims de drones militarisés « communiquer entre eux sans contact avec le commandement ». Ce qui signifie que “toutes les décisions sont prises par ‘l’intelligence’ de l’essaim”, explique le journaliste allemand. Ces « systèmes d’armes autonomes létaux » intelligents (Sala) ont déjà été utilisés par Israël dans sa lutte contre le Hamas à Gaza.
Ailleurs dans le monde, « d’autres armes autonomes sont en cours de développement ou prêtes à l’emploi : des robots terrestres ressemblant à des chiens ou transportant des animaux, Samsung travaille sur des armes à déclenchement automatique et contrôlées par l’IA… », précise Andrian Kreye.
Il n’existe toujours pas de réglementation internationale sur les armes autonomes. Si en 1997, 164 pays ont signé la Convention d’Ottawa contre les mines antipersonnel (considérée comme Sala “pas intelligent”), la tâche s’avère bien plus complexe en ce qui concerne l’IA, souligne le Zeitung d’Allemagne du Sud. En effet, la plupart des États se sont lancés dans une course aux armements intelligente et il semble difficile de revenir en arrière.
Pour de plus amples
Nous avons sélectionné trois textes publiés dans le dossier de Courrier international dédié aux usages militaires de l’IA :
Et ce qu’il ne faut pas manquer non plus cette semaine
Nous vous recommandons de lire cet article de USA aujourd’hui ce qui montre qu’un « Nationalisme chrétien » se développe dans le sillage de la campagne de Donald Trump pour l’élection présidentielle de novembre. Ce thème, déjà abordé dans une précédente Lettre de l’Educ, apparaît dans le dernier chapitre du programme de première année sur l’État et la religion.