L’intelligence artificielle bientôt au cœur des enquêtes policières ?

Un rapport d’Europol passe en revue les usages et les risques liés à l’usage de l’intelligence artificielle dans les missions des forces de sécurité intérieure.

Publié


Temps de lecture : 4 min

Si d’habitude les choix technologiques des forces de sécurité se font plutôt discrètement, on notera la publication fin septembre d’un rapport d’EUROPOL sur les avantages et les enjeux de l’utilisation de l’intelligence artificielle par les services de sécurité : police, gendarmerie, douanes, etc. .

Rappelons-le, Europol est l’agence européenne de coopération en matière pénale. Elle a été fondée en 1992 par le Traité de Maastricht. Il ne s’agit pas d’un FBI européen, mais plutôt d’un organisme d’échange d’informations entre États membres, et d’un point de coopération avec leurs homologues étrangers comme les États-Unis, le Canada ou l’Australie.

Elles sont principalement de deux sortes : D’une part, il y a la capacité d’analyser de gros volumes de données. Notamment pour identifier des liens entre des personnes ou des organisations parmi une grande variété de documents : textes, tableaux de figures, images, etc.

Cela permet de détecter des comportements inhabituels, par exemple parmi des centaines de milliers de transactions enregistrées dans la documentation bancaire. Moyen utilisé pour identifier une fraude ou une fraude présumée. Cela facilite la reconstitution des mouvements financiers ou même l’identification de schémas criminels entre différentes entités.

D’un autre côté, l’IA peut être utilisée pour extraire des informations utiles à partir d’une multitude de sources. Qu’ils soient librement accessibles, comme les réseaux sociaux. On parle alors d’OSINT (Intelligence open source) et plus précisément SOCMINT (Intelligence des médias sociaux). Ou encore sont extraits de captures numériques telles que des vidéos de surveillance ou des enregistrements sonores. Les algorithmes seront utilisés pour réaliser des transcriptions ou des traductions, identifier des personnes ou des comportements suspects. Par exemple, quelqu’un qui pousse une foule qui converge dans la même direction ou qui s’effondre au sol.

L’IA peut également être utilisée pour développer des scénarios de formation à des fins de formation du personnel.

Premièrement, comme toute intelligence artificielle, il faut se prémunir des risques de biais, c’est-à-dire des données utilisées pour éduquer l’IA qui seraient biaisées, par exemple en incluant des préjugés à l’égard des personnes en fonction de leur âge ou de leur sexe et fausseraient donc les résultats obtenus. Et le risque d’hallucinations, comme lorsque l’algorithme propose des solutions absolument fausses, mais qui ont des apparences de sérieux et de vérité.

Ensuite, le danger peut venir de certains usages de l’IA, comme la surveillance automatisée de masse par des dispositifs de vidéosurveillance biométriques qui reconnaîtraient tous les visages à la volée. Les algorithmes doivent aussi toujours rester explicables. UN une transparence qui doit permettre de comprendre comment et pourquoi les décisions ont été prises par les systèmes d’IA.

L’Union européenne a adopté un texte, l’AI ACT, destiné à encadrer l’usage de l’IA en Europe. Ce qui inclut son exploitation par les forces de sécurité. Cette IA ACTE a été publiée au Journal Officiel le 12 juillet 2024, et est entrée en vigueur le 1er août 2024. Son entrée en application durera de février 2025 à août 2027.

Commençant par détailler les interdictions relatives aux systèmes d’IA présentant «des risques inacceptables».

De quoi s’agit-il ? Ce qui conduirait à des pratiques contraires aux valeurs de l’Union européenne et aux droits fondamentaux.

  • Par exemple, la notation sociale telle qu’elle se pratique en Chine, avec une échelle de chacune de vos actions quotidiennes (sortir des limites, faire des commentaires déplacés ou au contraire donner du sang pour gagner des points).
  • Utilisation par les services de sécurité de l’identification biométrique à distance en temps réel dans les espaces accessibles au public.
  • Mesures de police prédictive ciblant les individus.
  • Reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement.

En France, la Commission nationale de l’informatique et des libertés, la CNIL, a publié une analyse de cette loi IA avec son point de vue d’autorité administrative indépendante en charge de la protection des données personnelles. De quoi alimenter la réflexion collective et politique au-delà de la disponibilité prochaine des technologies.

Elise

À chaque coup de stylo, créez des histoires captivantes. Découvrez des vérités cachées à la fois. 📝 🔍

Recent Posts

Une rafale “l’a projeté contre la façade d’une maison” : emporté par le vent, un homme décède lors d’une séance de kitesurf

Un homme de 58 ans est décédé ce dimanche 29 septembre 2024 après avoir été projeté contre une maison lors…

50 secondes ago

L’OM chute pour la première fois cette saison à Strasbourg

Grâce à un but de Moreira, Strasbourg a battu l'OM (1-0) dimanche. Première défaite des Olympiens de De Zerbi cette…

2 minutes ago

XV de France féminin. Deux capitaines, préparation à la Coupe du monde… Les enjeux de la WVX

Le XV de France féminin disputera trois matches lors du WXV, entre le 30 septembre et le 13 octobre, contre…

7 minutes ago

L’OM douché par Strasbourg, Lyon rugit encore

Marseille a subi la première défaite de sa saison à Strasbourg (1-0) tandis que Lyon, sa victime de la semaine…

11 minutes ago

France : un Italien est tué dans les Alpes dans un accident de wingsuit – Ouest-France

France : un Italien se tue dans les Alpes dans un accident de wingsuitOuest de la FranceVoir la couverture complète…

12 minutes ago

L’ouragan John tue au moins 16 personnes au Mexique

Après le passage de la tempête tropicale John, à Chilpancingo, État de Guerrero, Mexique, le 28 septembre 2024. OSCAR GUERRERO…

13 minutes ago