Il s’agit du bulletin d’information Closing Argument du Marshall Project, une plongée hebdomadaire en profondeur dans un problème clé de la justice pénale. Voulez-vous que cela soit livré dans votre boîte de réception ? Abonnez-vous aux futures newsletters ici.
En tant que journalistes de justice pénale, mes collègues et moi avons lu un bon nombre de documents juridiques.
Historiquement, si je tombais sur une citation dans un dossier – par exemple « Bourguignon contre Coordonnée Behavioral Health Servs., Inc., 114 AD3d 947 (3d Dep’t 2014) » – je pouvais être raisonnablement sûr que l’affaire existait, même si , peut-être que le dossier a mal indiqué sa signification.
L’intelligence artificielle rend cela moins sûr. L’exemple ci-dessus est un faux cas inventé par le chatbot IA ChatGPT. Mais la citation a été incluse dans une véritable poursuite pour faute professionnelle médicale contre un médecin de New York, et la semaine dernière, la Cour d’appel du deuxième circuit a confirmé les sanctions contre Jae S. Lee, l’avocat qui a déposé la plainte.
Ces types d’« hallucinations » ne sont pas rares pour l’IA à grand modèle de langage, qui compose un texte en calculant quel mot est susceptible de venir ensuite, sur la base du texte qu’elle a vu auparavant. Lee n’est pas le premier avocat à avoir des ennuis pour avoir inclus une telle hallucination dans un dossier judiciaire. D’autres personnes dans le Colorado et à New York – y compris l’ancien avocat de Donald Trump, Michael Cohen – ont également été brûlées parce qu’elles n’ont probablement pas vérifié le travail de l’IA. En réponse, la Cour d’appel du cinquième circuit a proposé l’année dernière de nouvelles règles qui obligeraient les justiciables à certifier que tout texte généré par l’IA a été examiné pour en vérifier l’exactitude. Les organisations professionnelles du droit ont publié des directives similaires.
Rien ne prouve qu’une majorité d’avocats utilisent l’IA de cette manière, mais très bientôt, la plupart l’utiliseront d’une manière ou d’une autre. L’American Lawyer, un magazine juridique, a récemment demandé à 100 grands cabinets d’avocats s’ils utilisaient l’IA générative dans leurs activités quotidiennes, et 41 cabinets ont répondu oui – le plus souvent pour résumer des documents, créer des transcriptions et effectuer des recherches juridiques. Les partisans soutiennent que les gains de productivité permettront aux clients d’obtenir davantage de services pour moins de temps et d’argent.
De la même manière, certains voient l’essor de l’IA comme une aubaine potentielle pour l’accès à la justice et imaginent un monde dans lequel la technologie pourrait aider les avocats d’intérêt public à servir davantage de clients. Comme nous l’avons examiné dans une précédente plaidoirie finale, l’accès aux avocats aux États-Unis est souvent rare. Selon certaines estimations, environ 80 % des accusés n’ont pas les moyens d’engager un avocat, et 92 % des problèmes juridiques civils auxquels sont confrontés les Américains à faible revenu restent totalement ou pour la plupart ignorés, selon une étude de la Legal Services Corporation.
Le California Innocence Project, une clinique juridique de la California Western School of Law qui s’efforce d’annuler les condamnations injustifiées, utilise un assistant juridique IA appelé CoCounsel pour identifier des modèles dans les documents, tels que des incohérences dans les déclarations des témoins. “Nous consacrons beaucoup de nos ressources et de notre temps à essayer de déterminer quels cas méritent une enquête”, a déclaré l’ancien avocat général Michael Semanchik à l’American Bar Association Journal. « Si l’IA pouvait simplement me dire sur lesquels me concentrer, nous pourrions nous concentrer sur les enquêtes et les litiges visant à faire sortir les gens de prison. »
Mais la nouvelle technologie présente également une myriade de possibilités de problèmes, au-delà du fait d’embarrasser les avocats qui tentent de faire passer le travail généré par l’IA pour le leur. Un problème majeur est la confidentialité. Que se passe-t-il lorsqu’un client fournit des informations au chatbot d’un avocat, au lieu de l’avocat ? Ces informations sont-elles toujours protégées par le secret du secret professionnel de l’avocat ? Que se passe-t-il si un avocat saisit les informations personnelles d’un client dans un outil d’IA qui s’entraîne simultanément sur ces informations ? L’incitation appropriée d’un avocat adverse utilisant le même outil pourrait-elle servir à transmettre ces informations ?
Ces questions sont désormais largement théoriques, et les réponses devront peut-être être trouvées devant les tribunaux à mesure que la technologie deviendra plus courante. Une autre préoccupation constante concernant toute IA – et pas seulement en droit – est que les préjugés inhérents aux données utilisées pour entraîner l’IA s’exprimeront dans le texte produit par les grands modèles de langage.
Alors que certains avocats se tournent vers l’IA pour les aider dans leur cabinet, certains entrepreneurs technologiques cherchent également à remplacer les avocats dans certains contextes. Dans le cas le plus connu, le service juridique DoNotPay a brièvement flirté avec l’idée de son avocat robot IA plaidant une affaire dans une salle d’audience en direct (en transmettant des lignes à un humain portant un écouteur) avant de reculer face à de prétendues menaces juridiques.
DoNotPay a débuté en 2015, proposant à ses clients des modèles juridiques pour lutter contre les contraventions de stationnement et intenter de simples poursuites civiles, et propose toujours principalement des services dans ce domaine, plutôt que le spectre voyant des robots avocats plaidant devant les tribunaux. Mais même l’automatisation de ces aspects apparemment banals du droit pourrait avoir des conséquences dramatiques sur le système juridique.
Écrivant pour Wired Magazine l’été dernier, Keith Porcaro concluait que les avocats spécialisés dans l’IA pourraient finir par démocratiser le droit et rendre les services juridiques accessibles à des personnes qui autrement n’y auraient pas accès, tout en aidant simultanément les personnes puissantes à « utiliser le système juridique comme un gourdin ».
Il note que si l’IA permet aux agents de recouvrement de demander plus facilement des saisies-arrêts sur salaire et de procéder à des expulsions, elle pourrait déclencher une vague de jugements par défaut contre les personnes pauvres qui ne se présentent pas au tribunal. Et même si, en guise de contrepoids, l’IA devenait un outil permettant d’aider les gens ordinaires à se défendre contre des affaires de prédation, le torrent de litiges juridiques qui en résulterait pourrait paralyser le système judiciaire actuel. « Presque chaque application de grands modèles linguistiques dans les tribunaux devient un problème de volume que les tribunaux ne sont pas équipés pour gérer », écrit Porcaro.
Là encore, peut-être pas. Bien que ce soit encore loin, l’American Bar Association s’est demandé si l’IA, dans ce meilleur des mondes juridiques, pourrait mieux jouer le rôle de juge, offrant une « résolution impartiale et rapide à ceux qui ont simplement besoin de avancez et avancez vite.