« L’IA ouvre de nouvelles possibilités de surveillance »

AAlors que les géants de l’intelligence artificielle (IA) promettent des assistants virtuels toujours plus sophistiqués, l’un des risques posés par l’expansion de cette technologie est peu souligné : l’IA ouvre aussi les portes de la surveillance. Si le numérique permet déjà d’analyser et de détecter les comportements humains à des fins policières, professionnelles ou commerciales, les progrès récents dans le traitement des textes, du son et des images pourraient étendre ces capacités.

L’application la plus évidente est la vidéosurveillance « intelligente », qui propose d’utiliser l’IA pour analyser le contenu des images des caméras, notamment pour identifier les personnes grâce à la reconnaissance faciale – une technique assez répandue en Chine. Le récent règlement AI Act interdisait, dans l’Union européenne, de tels « identification biométrique à distance en temps réel dans les espaces accessibles au public ». Tout en autorisant son utilisation par les forces de l’ordre, sous certaines conditions, à des fins « la prévention des menaces réelles, actuelles ou prévisibles, telles que les attentats terroristes et la recherche des personnes soupçonnées des crimes les plus graves ». Utiliser a posteriori est possible, sous conditions.

L’ONG Amnesty International a regretté « opportunité manquée » d’une interdiction totale. L’association La Quadrature du Net déplore les premiers tests en France de vidéosurveillance algorithmique, autorisés par la loi sur les JO adoptée en mars 2023 : sans reconnaissance faciale, ceux-ci visaient à détecter des mouvements jugés problématiques, dans les transports en commun, lors d’un concert ou un match de football. L’association craint une percée « à petits pas ». Pour ses partisans, l’IA lève un obstacle majeur à la vidéosurveillance : la difficulté de faire analyser de très grandes quantités d’images par des humains. Pour ses détracteurs, elle est liberticide mais aussi source d’erreurs et de biais.

Lire aussi | Vidéosurveillance algorithmique : tests en région parisienne lors des concerts de Taylor Swift

Les possibilités ne s’arrêtent pas à ces domaines très controversés. En apparence anodine, l’une des fonctionnalités présentées le 14 mai par Google a fait réagir les défenseurs de la vie privée : elle propose d’envoyer une alerte à l’utilisateur d’un téléphone Android s’il reçoit un appel sensible, selon l’IA, comme étant une arnaque. « C’est incroyablement dangereux », a tweeté Meredith Whittaker, directrice générale de la messagerie cryptée Signal. Selon elle, l’analyse des conversations téléphoniques pourrait, à terme, être utilisée par les États pour détecter tous types de comportements jugés illégaux. Pour rassurer, Google a rappelé que les conversations étaient analysées sur le téléphone de l’utilisateur et que ce dernier devait donner son consentement – « s’inscrire » – pour utiliser ce service.

Il vous reste 35,14% de cet article à lire. Le reste est réservé aux abonnés.