[ad_1]
Il s’agit du bulletin d’argument de clôture du projet Marshall, une plongée hebdomadaire profonde dans un problème de justice pénale clé. Vous voulez que cela soit livré dans votre boîte de réception? Inscrivez-vous aux futures newsletters.
En juillet, les fans de Tesla se sont alignés pendant des heures à Los Angeles pour découvrir le nouveau restaurant «rétro-futuristique» et la station de charge ouverte par Elon Musk. Parmi les attractions, il y avait le robot «Optimus» de l’entreprise, qui a servi du pop-corn à des clients affamés près des hamburgers de Wagyu à la grillade. À cinquante milles à l’est à Chino, Delinia Lewis, directeur associé de la California Institution for Women, espère un jour, mettre des machines à propulsion de l’IA comme celles-ci pour travailler dans sa prison faisant des emplois beaucoup plus importantes que de faire échanger des collations. Alors que les pénuries de personnel continuent de séduire les prisons à travers le pays, Lewis pense que l’IA pourrait aider à combler l’écart.
«La distribution des médicaments, l’alimentation cellulaire, les recherches de sécurité, les recherches de package pour le fentanyl, toutes les tâches dangereuses et routinières que le personnel ne veut pas faire», a déclaré Lewis. «Pourquoi ne pas laisser le robot le faire? Ensuite, le personnel peut se concentrer sur des parties plus complexes du travail.»
Lewis a écrit sur l’utilisation de l’IA dans les services correctionnels et a déclaré qu’elle formait une entreprise pour produire des robots axés sur l’IA pour une utilisation dans les paramètres correctionnels. Bien qu’elle espère que la technologie pourrait être employée au cours des 10 prochaines années, la crise budgétaire de l’État rend l’acquisition d’outils d’IA de pointe.
“Qui sait quand la Californie sera de retour dans le vert”, a déclaré Lewis à propos du budget de l’État, “mais nous perdons du personnel à un rythme record, donc le pont doit se casser, et nous devons vraiment profiter de la technologie.”
Les robots derrière les barreaux sont peut-être éloignés, mais les prisons et les prisons ont rapidement adopté d’autres outils d’IA et d’apprentissage automatique. Les défenseurs critiques de la technologie sont préoccupés par les processus de collecte de données opaques, les violations de la confidentialité et les préjugés.
Les sociétés de télécommunications pénitentiaires ont été parmi les premières à plonger leurs orteils dans la technologie de l’IA. En 2017, Leotech a commencé à commercialiser Verus, un outil de surveillance téléphonique pour enregistrer et surveiller les appels. La société utilise les services de cloud et de transcription d’Amazon pour signaler les mots clés qui pourraient alerter le personnel sur la «renseignement précieux». Au moins trois États ont utilisé l’outil pour surveiller les appels téléphoniques pour des mentions de coronavirus pendant la pandémie, dans le but de suivre les épidémies, selon The Intercept. Alors que des outils comme Verus ont été initialement commercialisés en tant que complémentations aux services téléphoniques existants, de nombreux géants de télécommunications de prison ont depuis fait de la surveillance des appels d’IA une partie par défaut de leurs services.
“Étant donné que Securus et Global Tel Link le fournissent maintenant, cela signifie que cela sera beaucoup plus accessible dans beaucoup plus d’endroits”, a déclaré Beryl Lipton, experte des outils de surveillance des forces de l’ordre et de la prison à la Fondation Electronic Frontier.
L’utilisation de ces outils a conduit à de graves violations du privilège avocat-client. Au cours des cinq dernières années, des poursuites ont été intentées dans plusieurs États contre Securus, alléguant que la société avait enregistré des appels privilégiés. Securus a réglé certaines des poursuites et a nié enregistrer délibérément des appels protégés. La controverse n’a pas empêché les services correctionnels d’utiliser la technologie, ou les fournisseurs de la commercialiser. Leotech a fait du lobbying dans l’Ohio, où les législateurs ont adopté un budget cette année qui comprend 1 million de dollars pour que le système pénitentiaire de l’État puisse payer pour des logiciels qui “transcriront et analyseront tous les appels téléphoniques des détenus” à partir de l’année prochaine, selon Signal Ohio. La Floride a signé un accord avec Leotech en 2023.
La principale préoccupation de Lipton avec les outils de l’IA dans les prisons et les services de police est la façon dont les données qu’ils recueillent sont stockées, conservées et alimentées plus tard dans d’autres systèmes.
«Les forces de l’ordre et les entreprises qui les aident à le faire sont très intéressées à collecter toutes les informations qu’ils peuvent collecter sur quelqu’un, car elles pensent que cela va les aider à résoudre ou à prévenir un crime futur», a déclaré Lipton.
Alors que certaines technologies de l’IA font leur chemin dans le système, à certains égards, les États-Unis jouent un rattrapage avec d’autres pays. Le mois dernier, le ministère de la Justice du Royaume-Uni a exposé son plan d’intégration de l’IA dans les prisons, les services de probation et les tribunaux. Certains des objectifs de l’agence comprennent l’intégration d’outils de transcription et de traitement des documents d’IA pour les agents de probation, et la création d’un «assistant numérique… pour aider les familles à résoudre les litiges d’arrangement pour enfants en dehors du tribunal».
Mais la star de l’annonce est un nouveau «prédicteur de la violence de l’IA» qui promet de prévenir la violence des prisons en analysant les données, y compris l’âge d’une personne incarcérée et la participation antérieure dans des incidents violents. Si cela semble familier, vous pourriez penser à des outils d’évaluation des risques qui ont longtemps été utilisés aux États-Unis, que ProPublica a documenté il y a près de 10 ans pour être en proie à des préjugés raciaux et «remarquablement peu fiable dans la prévision des crimes violents». Les outils plus anciens évaluent généralement le risque en considérant un ensemble de variables pondérées – telles que l’âge et les condamnations antérieures – soit manuellement, soit en utilisant un algorithme. Les «prédicteurs» dirigés par l’IA sont comme des outils d’évaluation des risques sur les stéroïdes, en s’appuyant sur des ensembles de données beaucoup plus importants.
Bien que les outils axés sur l’IA d’aujourd’hui soient plus sophistiqués à certains égards, le risque de biais et d’erreur est toujours là, et l’efficacité des outils prédictifs a été remise en question.
«Beaucoup de ces outils prédictifs peuvent créer des erreurs involontaires lorsque certaines communautés sont mal desservies ou mal comprises en raison de la façon dont le modèle a raté ou à tort pris en compte les risques des individus dans cette communauté», a déclaré Albert Fox Cahn, fondateur et directeur exécutif du Project de surveillance de la technologie de surveillance, qui a étudié l’IA Surviedance dans les prisons.
En plus de prédire la violence contre les autres, certains membres du personnel correctionnel cherchent à utiliser des outils de «profilage comportemental biométrique» en combinaison avec l’IA pour empêcher les décès en détention et les urgences médicales. Le bureau du shérif du comté de Maricopa, en Arizona, veut acheter une technologie portable pour suivre la fréquence cardiaque, la température corporelle et d’autres «indicateurs clés», selon AZ Central. Les prisons du Colorado, de l’Alabama et ailleurs en Arizona ont déjà commencé à utiliser des outils similaires.
Lewis, le directeur associé en Californie, est bien conscient des préoccupations éthiques qui viennent avec les outils de l’IA, et pense que les critiques produiront finalement de meilleurs résultats.
«Je salue les préoccupations, car cela nous donne l’occasion de faire plus de recherches et de résoudre ces préoccupations», a déclaré Lewis. «Je ne pense pas que cela va nous inhiber, je pense que ça va nous aider à faire un produit plus avancé et meilleur.»
[ad_2]
Source link
