101214949 182148636 scaled

[ad_1]

Déposé
12h00 HAE

06.07.2025

L’intelligence artificielle change la façon dont la police enquête sur les crimes – et surveille les citoyens – alors que les régulateurs ont du mal à suivre le rythme.

Une photo montre une caméra de surveillance vidéo dans le foyer. Une personne dans un pull bleu clair marche dans une rue en arrière-plan.

Une caméra de surveillance vidéo est montée sur le côté d’un bâtiment à San Francisco, en Californie, en 2019.

Il s’agit du bulletin d’argument de clôture du projet Marshall, une plongée hebdomadaire profonde dans un problème de justice pénale clé. Vous voulez que cela soit livré dans votre boîte de réception? Inscrivez-vous aux futures newsletters.

Si vous êtes un lecteur régulier de cette newsletter, vous savez que le changement dans le système de justice pénale est rarement linéaire. Il vient des ajustements, ralentis par la bureaucratie, la politique et juste une inertie. Les réformes sont régulièrement adoptées, puis reculées, édulcorées ou attachées devant le tribunal.

Cependant, il y a un coin du système où le changement se produit rapidement et presque entièrement dans une direction: l’adoption de l’intelligence artificielle. De la reconnaissance faciale à l’analyse prédictive à la montée en puissance de plus en plus convaincants et d’autres vidéos synthétiques, les nouvelles technologies émergent plus rapidement que les agences, les législateurs ou les groupes de surveillance.

Prenez la Nouvelle-Orléans, où, au cours des deux dernières années, les policiers ont discrètement reçu des alertes en temps réel d’un réseau privé de caméras équipées de l’IA, signalant où se trouvent les personnes sur les listes recherchées, selon des rapports récents du Washington Post. Depuis 2023, la technologie est utilisée dans des dizaines d’arrestations et elle a été déployée dans deux incidents de haut niveau cette année qui ont mis la ville sous les projecteurs nationaux: l’attaque terroriste du Nouvel An qui a tué 14 personnes et blessé près de 60 ans, et l’évasion de 10 personnes de la prison de la ville le mois dernier.

En 2022, les membres du conseil municipal ont tenté de mettre des garde-corps sur l’utilisation de la reconnaissance faciale, de transmettre une ordonnance qui limitait l’utilisation de la police de cette technologie à des crimes violents spécifiques et a obligé la surveillance des examinateurs formés dans un établissement de l’État.

Mais ces directives supposent que la police fait la recherche. La police de la Nouvelle-Orléans a des centaines de caméras, mais les alertes en question provenaient d’un système distinct: un réseau de 200 caméras équipés de reconnaissance faciale et installée par des résidents et des entreprises sur une propriété privée, alimentant une vidéo à un organisme sans but lucratif appelé Project NOLA. Les policiers qui ont téléchargé l’application du groupe ont ensuite reçu des notifications lorsque quelqu’un sur une liste recherchée a été détecté sur le réseau de caméras, ainsi qu’un emplacement.

Cela a frustré les groupes de libertés civiles et les avocats de la défense en Louisiane. “Lorsque vous en faites une entité privée, tous ces garde-corps qui sont censés être en place pour les forces de l’ordre et les poursuites ne sont plus là, et nous n’avons pas les outils pour faire ce que nous faisons, ce qui est responsable des gens”, a déclaré Danny Engelberg, défenseur public de la Nouvelle-Orléans, au Post. Les partisans de l’effort, quant à eux, disent que cela a contribué à une baisse prononcée de la criminalité dans la ville.

Le service de police a déclaré qu’il suspendre l’utilisation de la technologie peu de temps avant la publication de l’enquête du poste.

La Nouvelle-Orléans n’est pas le seul endroit où les forces de l’ordre ont trouvé un moyen de contourner les limites imposées par la ville pour la reconnaissance faciale. La police de San Francisco et d’Austin, au Texas, a tous deux contourné les restrictions en demandant aux organismes d’application de la loi à proximité ou en partenariat pour effectuer des recherches sur la reconnaissance faciale en leur nom, selon les rapports du Post l’année dernière.

Pendant ce temps, au moins une ville envisage une nouvelle façon de gagner l’utilisation de la technologie de reconnaissance faciale: en partageant des millions de photos de réservation de prison avec des sociétés de logiciels privées en échange d’un accès gratuit. La semaine dernière, le Milwaukee Journal-Sentinel a rapporté que le service de police de Milwaukee envisageait un tel échange, tirant parti de 2,5 millions de photos en échange de 24 000 $ en permis de recherche. Les responsables de la ville disent qu’ils n’utiliseraient la technologie que dans les enquêtes en cours, et non pour établir une cause probable.

Une autre façon dont les départements peuvent contourner les règles de reconnaissance faciale consiste à utiliser une analyse d’IA qui ne s’appuie pas techniquement sur les visages. Le mois dernier, le Massachusetts Institute of Technology Review a noté la montée en puissance d’un outil appelé «Track», offert par la société Veritone. Il peut identifier les personnes utilisant «la taille du corps, le sexe, la couleur des cheveux et le style, les vêtements et les accessoires». Notamment, l’algorithme ne peut pas être utilisé pour suivre la couleur de la peau. Parce que le système n’est pas basé sur des données biométriques, elle échappe à la plupart des lois destinées à restreindre l’utilisation de la technologie d’identification de la police. De plus, cela permettrait aux forces de l’ordre de suivre les personnes dont les visages peuvent être masqués par un masque ou un mauvais angle de caméra.

À New York, la police explore également des moyens d’utiliser l’IA pour identifier les personnes non seulement par le visage ou l’apparence, mais aussi par comportement. “Si quelqu’un agit, irrationnel … cela pourrait potentiellement déclencher une alerte qui déclencherait une réponse de la sécurité et / ou du service de police”, a déclaré le directeur de la sécurité de la Metropolitan Transportation Authority, Michael Kemper, en avril, selon le Verge.

Au-delà des emplacements physiques et des mouvements des gens, la police utilise également l’IA pour changer la façon dont ils s’engagent avec les suspects. En avril, Wired Magazine et 404 Media ont rendu compte d’une nouvelle plate-forme d’IA appelée Massive Blue, que la police utilise pour s’engager avec des suspects sur les réseaux sociaux et dans les applications de chat. Certaines applications de la technologie comprennent la collecte de renseignements des manifestants et des militants, et des opérations d’infiltration destinées à piéger des personnes à la recherche de relations sexuelles avec des mineurs.

Comme la plupart des choses que l’IA est utilisée pour faire, ce type d’opération n’est pas nouveau. Il y a des années, j’ai couvert les efforts du service de police de Memphis pour me connecter avec des militants locaux via un compte Facebook géré par le département pour un manifestant fictif nommé «Bob Smith». Mais comme de nombreuses facettes de l’IA émergente, ce n’est pas l’intention qui est nouvelle – c’est que les outils numériques pour ce type d’efforts sont plus convaincants, bon marché et évolutifs.

Mais cette épée coupe dans les deux sens. La police et le système juridique sont également en train de faire face à des documents générés par l’AI de plus en plus sophistiqués dans le contexte des enquêtes et des preuves dans les procès. Les avocats s’inquiètent du potentiel de vidéos générées par des AI, qui pourraient être utilisées pour créer de faux alibis ou incriminer faussement des personnes. À son tour, cette technologie crée la possibilité d’une «défense profonde» qui introduit le doute dans les preuves vidéo les plus claires. Ces préoccupations sont devenues encore plus urgentes avec la sortie du moteur vidéo hyper-réaliste de Google Gemini le mois dernier.

Il y a également des questions sur les utilisations moins duplicites de l’IA dans les tribunaux. Le mois dernier, un tribunal de l’Arizona a regardé une déclaration d’impact d’une victime de meurtre, générée avec l’IA par la famille de l’homme. L’avocat de la défense de l’homme condamné dans l’affaire a déposé un appel, selon les reportages locaux, se demandant si le poids émotionnel de la vidéo synthétique a influencé la décision de détermination de la peine du juge.

[ad_2]

Source link