Nous avons tous vu les gros titres sur les avocats boostés par l’IA devenir fous. Depuis l’arrivée de ChatGPT, des cas fantômes sont apparus dans les dossiers judiciaires à travers le pays. Les juges ont réagi en imposant des sanctions, en récusant les avocats et, plus récemment, en émettant même une série de nouvelles ordonnances et règles qui réglementent la manière dont les justiciables peuvent utiliser les nouvelles technologies basées sur l’IA.
Mais lorsqu’il s’agit d’utiliser l’IA par les avocats, la solution ne réside pas dans de nouvelles règles sur mesure. Au lieu de cela, comme l’ABA nous l’a récemment rappelé, il s’agit de s’appuyer sur l’architecture réglementaire de la responsabilité des avocats, vieille de plusieurs décennies. Cette architecture éprouvée a été à la hauteur du défi lorsque, il y a vingt ans, des avocats américains ont commencé à confier du travail juridique à des professionnels en Inde, et que cette délégation a déclenché une panique éthique de courte durée. Il est également bien équipé pour résoudre le problème posé par la dépendance des avocats à l’IA, sans qu’aucune modification ne soit nécessaire.
Si c’est tout ce qui était en jeu, alors nous pourrions dire que la frénésie visant à réglementer l’utilisation de l’IA a été une regrettable perte de temps pour les tribunaux – et de ressources publiques. Mais la nouvelle vague de règles en matière d’IA est pire que cela. Il s’avère que les nouvelles règles freinent les utilisations innovantes de l’IA qui pourraient aider des millions d’Américains sans conseil. Pire encore, ils nous détournent d’un problème plus urgent : la nécessité de réformer les règles anciennes et anciennes qui restreignent l’utilisation de la technologie par tous, y compris les tribunaux eux-mêmes. Dans ce contexte, l’établissement de règles adéquates est bien plus important pour la santé future du système.
L’IA pour les avocats. Tous les autres? Tu es seul
C’est le sale secret des tribunaux américains : aujourd’hui, la majorité des justiciables civils se représentent eux-mêmes. En effet, les meilleures preuves suggèrent que, dans environ les trois quarts des 20 millions d’affaires civiles déposées chaque année devant les tribunaux américains, au moins une partie n’a pas d’avocat. La plupart de ces affaires opposent un plaignant institutionnel (un propriétaire, une banque, un collecteur de dettes ou le gouvernement) contre un individu non représenté. Confrontés à des questions très lourdes de conséquences, allant des expulsions aux recouvrements de créances en passant par les affaires de droit de la famille, des millions de personnes sont condamnées à affronter des procédures judiciaires byzantines – conçues par des avocats, pour des avocats – sans assistance formelle.
Bien entendu, les plaideurs non représentés ne sont pas entièrement seuls. Beaucoup se débrouillent avec les ressources dont ils disposent immédiatement. Souvent, cela signifie Internet ou ChatGPT. Malheureusement, les deux regorgent d’informations juridiques peu fiables. Comme l’a récemment déclaré le National Center for State Courts, à l’ère de l’IA, le système judiciaire américain est de plus en plus inondé par une « mer de déchets ».
Tout n’est pas encore perdu. Comme pour bien d’autres choses dans le domaine de l’IA, la situation est en pleine évolution. Les outils d’IA générative s’améliorent rapidement. En plissant les yeux, nous pouvons entrevoir un avenir pas si lointain où les outils d’IA offriront une aide réelle et précieuse aux justiciables non représentés. Cependant, même des outils améliorés se heurteront à des obstacles.
Deux obstacles freinent la capacité de l’IA générative à aider les justiciables non représentés
L’un des obstacles réside dans les règles de longue date en vigueur dans chaque État, appelées règles de pratique non autorisée du droit (ou règles UPL en abrégé), qui stipulent que seuls les avocats peuvent pratiquer le droit – et qui définissent ensuite la « pratique du droit » de manière large. Ces règles s’appliquent même aux non-humains et empêchent ainsi les fournisseurs de technologie – les Zooms juridiques du monde – d’offrir une assistance complète aux personnes qui en ont besoin. Les règles UPL freinent déjà la capacité des outils technologiques à aider les plaideurs non représentés. Et l’effet limitant des règles UPL ne fera que s’intensifier à mesure que les capacités des outils technologiques se développeront.
Ensuite, il y a ces nouvelles règles que les tribunaux et les juges, dans leur fièvre de l’IA, promulguent à la hâte. Considérez une ordonnance récente d’un tribunal fédéral de Caroline du Nord. Il interdit l’utilisation de l’IA dans la recherche pour la préparation d’un dossier judiciaire « à l’exception de l’intelligence artificielle intégrée dans les sources de recherche juridique en ligne standard Westlaw, Lexis, FastCase et Bloomberg ».
Pouvez-vous deviner combien de justiciables non représentés ont accès à ces bases de données commerciales coûteuses ? « Pas beaucoup » serait un euphémisme. Essentiellement, cette ordonnance donne le feu vert aux avocats pour utiliser l’IA générative tout en liant les mains de ceux qui n’ont pas d’avocat.
Certaines règles sont moins sévères et exigent simplement que le justiciable divulgue toute utilisation de l’IA. Mais même ces mesures peuvent avoir un effet dissuasif, en particulier lorsqu’il s’agit de justiciables sans avocat. Les plaideurs non représentés doivent-ils divulguer s’ils utilisent un moteur de recherche doté de capacités d’IA générative ? Est-ce que la personne moyenne le saura ? Et si quelqu’un utilisait simplement un outil d’IA générative pour analyser le fouillis de jargon juridique qui parsème les sites Web des tribunaux ? Est-ce que cela doit être divulgué ? La réponse à ces questions n’est pas claire, ce qui met en évidence la nature lourde et restrictive de ces politiques instinctives.
« Courthouse AI » comme nouvelle frontière de l’accès à la justice
Ce qu’il faut faire? On peut facilement imaginer que les législateurs et les décideurs répondent aux préoccupations liées aux hallucinations et à la mer de déchets en doublant les dispositions UPL et en interdisant à OpenAI et à d’autres de faire du droit. Les avocats soucieux de leurs résultats pourraient applaudir cette évolution.
Mais il existe peut-être une meilleure option, et elle est déjà en cours. Les tribunaux commencent à intégrer l’IA dans leurs propres opérations et se positionnent comme une source faisant autorité d’informations juridiques et de ressources d’auto-assistance. En exploitant l’IA générative, les tribunaux peuvent faire en sorte que leurs sites Web, portails et kiosques idéalement situés fournissent des informations fiables, exploitables et personnalisées aux plaideurs non représentés. Les tribunaux nouvellement numérisés pourraient être les seules institutions capables de servir de radeau de sauvetage pour maintenir les justiciables non représentés à flot dans la mer de déchets.
Le piège ? Les mêmes règles UPL qui paralysent les zooms juridiques du monde interdisent également aux tribunaux et au personnel des palais de justice de donner aux plaideurs non représentés des conseils fiables, exploitables et personnalisés, sous la menace de sanctions pénales. Cette restriction – ce que nous appelons « l’UPL des palais de justice » – constitue un obstacle considérable au positionnement des tribunaux de notre pays en tant que sources fiables et faisant autorité d’orientation juridique pour les parties non représentées. Cela limite également l’assistance numérique que les tribunaux peuvent fournir.
Résoudre ce problème est bien entendu plus difficile que de rendre des ordonnances ciblant strictement la rédaction des mémoires des avocats. Nous devons mettre à jour les lignes directrices désuètes que les États ont créées pour déclarer ce que les tribunaux peuvent et ne peuvent pas faire. Beaucoup de ces lignes directrices parlent d’une époque analogique antérieure, et même les plus récentes s’adressent aux sites Web statiques d’antan, et non aux outils dynamiques et interactifs rendus possibles par l’IA générative.
Faute de capacités techniques propres, les tribunaux doivent également développer des pipelines de R&D en IA, que ce soit via des achats intelligents ou en travaillant avec des universités et un mouvement croissant de « technologie d’intérêt public », pour apprendre ce qui fonctionne et développer des outils hébergés par les tribunaux qui soient fiables et flexibles. et réactif aux besoins des justiciables. Compte tenu de la promesse d’AI pour les millions d’Américains contraints de naviguer dans les tribunaux sans aide, nous devons affronter de front les questions sur le rôle du tribunal et sur « l’UPL des palais de justice ». Les tribunaux ne sont ni neutres ni impartiaux s’ils choisissent de restreindre plutôt que de faciliter l’accès des justiciables à l’assistance basée sur l’IA.
Le temps nous dira à quoi ressemblera un nouveau système de justice civile numérisé. Ce qui est clair, cependant, c’est qu’en ce qui concerne l’utilisation de l’IA par les avocats, l’architecture réglementaire existante des avocats est déjà adéquate. Aucune autre orientation n’est requise. Pour les plaideurs non représentés et les tribunaux qui s’efforcent de les servir, la situation est différente. Pour eux, l’IA générative est très prometteuse si nous sommes assez sages pour la laisser faire.
David Freeman Engstrom est professeur de droit LSVF à la Stanford Law School. Nora Freeman Engstrom est professeur de droit Ernest W. McFarland à la faculté de droit de Stanford. Ils codirigent le Deborah L. Rhode Center on the Legal Profession de Stanford.
ABAJournal.com accepte les requêtes d’articles et de commentaires originaux, réfléchis et non promotionnels de contributeurs non rémunérés à publier dans la section Votre voix. Les détails et les directives de soumission sont publiés sur « Vos soumissions, votre voix ».
Cette chronique reflète les opinions de l’auteur et pas nécessairement celles de l’ABA Journal ou de l’American Bar Association.