SSi les Jeux olympiques et paralympiques de Paris ont été, de l’avis général, un succès sportif populaire retentissant, et ont reflété une si belle image de la capitale française, c’est aussi parce qu’aucune des innombrables menaces redoutées pour la sécurité de l’événement ne s’est matérialisée. Fort de ce constat, et de ce souvenir d’euphorie collective, le préfet de police de Paris, Laurent Nuñez, a déclaré mercredi 25 septembre “très favorable” à la prolongation du système de vidéosurveillance algorithmique testé pendant les Jeux et autorisé, par une loi de 2023, jusqu’au 31 mars 2025.
Cette technique, qui n’inclut pas la reconnaissance faciale, vise à détecter, grâce à l’analyse d’images et d’autres données, des événements anormaux comme des mouvements de foule ou des objets abandonnés pouvant suggérer une attaque. Elle utilise 480 caméras déployées par la Préfecture de police et la RATP.
La démarche du préfet repose sur une méthode très classique, celle du « pied dans la porte » : un système de sécurité controversé, éventuellement attentatoire aux libertés publiques, est testé à l’occasion d’un événement exceptionnel, puis généralisé et pérennisé sans avoir été évalué ni rediscuté. A l’appui de son avis, M. Nuñez a seulement fait valoir que le déploiement de la vidéosurveillance algorithmique serait très utile lors d’événements sportifs ou culturels de moindre ampleur que les Jeux, où des forces de police exceptionnelles ne peuvent être déployées, comme cet été à Paris.
Des résultats peu convaincants
La capacité de cette vidéosurveillance dite « intelligente » à détecter un attentat ou autre délit est toutefois contestée. Son utilisation expérimentale antérieure, par exemple par la SNCF ou la mairie de Nice, n’a donné lieu à aucune évaluation publique. Aux États-Unis et au Royaume-Uni, où des résultats ont parfois été révélés, les résultats ne sont pas très probants, notamment en raison des nombreux « faux positifs » détectés. Si l’intérêt de cette technologie n’est plus à démontrer, dans un cadre réglementé, pour la détection des incendies, sa capacité à analyser le comportement humain ne semble pas tenir les promesses des entreprises qui la promeuvent.
Le chef de la police va donc vite. Il ne peut être question de pérenniser la vidéosurveillance algorithmique – ce qui nécessiterait par ailleurs l’adoption d’une nouvelle loi – sans un examen attentif des conclusions du rapport sur ce sujet que le gouvernement doit remettre au Parlement d’ici le 31 décembre.
Cette discussion doit inclure le risque assez évident que la banalisation de ce type de vidéosurveillance serve surtout à consolider son acceptabilité sociale afin de favoriser l’adoption future de dispositifs basés sur la reconnaissance faciale et permettant une identification biométrique à distance en temps réel. Ceux-ci sont interdits dans l’Union européenne, sauf dans certaines circonstances. Une telle fuite en avant inclut potentiellement des formes redoutables de « reconnaissance des émotions » par l’intelligence artificielle, actuellement interdites en Europe, notamment dans les domaines du travail et de l’éducation.
Tout déploiement de nouveaux outils de surveillance nécessite transparence et discussion de ses résultats. Il serait paradoxal que « l’intermède enchanté » de ces Jeux ouvre la voie à des dérives, dans le pays même qui se targue d’avoir célébré, à cette occasion, devant le monde entier, les libertés du citoyen.