Vous vous souvenez de l’époque où ces avocats avaient déposé un mémoire truffé de fausses affaires générées par ChatGPT ? Les médias grand public s’étaient mis à paniquer à l’ancienne à propos des dangers de l’intelligence artificielle sans jamais considérer que le fait de ne pas lire les affaires que vous citez dans un mémoire était un problème d’avocat très, très humain plus qu’un problème technologique. Mais « L’IA ruine le droit » est un meilleur titre et nous voilà donc ici.
Aujourd’hui, les avocats sont désormais avertis de manière appropriée qu’il ne faut pas faire aveuglément confiance à la recherche juridique générative de l’IA et que des fournisseurs de recherche juridique de confiance ont développé des outils d’IA conçus pour – espérons-le – protéger les avocats des hallucinations fiévreuses de l’algorithme.
Malheureusement, les hallucinations ne sont pas les seules mouches que l’IA peut introduire dans la pommade :
Un avocat a demandé à un juge fédéral de Virginie de ne pas imposer de sanctions après avoir utilisé des citations et des citations de cas incorrectes dans un dossier judiciaire, arguant que les erreurs n’étaient pas intentionnelles et résultaient d’une « confiance de bonne foi » dans les outils d’intelligence artificielle.
Il faut noter que le problème, malgré les inquiétudes initiales du juge dans cette affaire, n’est pas celui des « faux » cas, mais celui des cas cités et rapportés de manière incorrecte. On est loin des jours difficiles de 2023, où les algorithmes pouvaient créer par magie un faux cas pour donner à l’utilisateur ce qu’il voulait entendre, mais cela reste un problème pour les avocats.
Dans la réponse de l’avocat, Thad Guyer a expliqué que les cas cités étaient à la fois très réels et très pertinents sur le fond, mais…
Les deux affaires citées par le défendeur et la Cour comme apparemment inexistantes, United Therapeutics Corp. c. Watson Laboratories, Inc. et United States c. Mosby, existent bien mais ont été citées à tort (Guyer Decl. ¶ 11). United Therapeutics, bien que citée à tort comme « No. 3:17-cv00081, 2017 WL 2483620, à la p. 1 (ED Va. 7 juin 2017) », est une affaire réelle rapportée à 200 F. Supp. 3d 272 (D. Mass. 2016) (Guyer Decl. ¶ 11(1)). De plus, la proposition pour laquelle cette affaire est citée dans les objections du demandeur est exacte et applicable, malgré les citations erronées (Guyer Decl. ¶ 14). De même, l’affaire United States v. Mosby, bien que citée à tort comme « 2021 WL 2827893, at 4 (D. Md. July 7, 2021) », est une affaire réelle rapportée dans 2022 WL 1120073 (D. Md. Apr. 14, 2022). (Guyer Decl. ¶ 11(2)). La proposition pour laquelle cette affaire a été citée trouve un appui analogue dans une affaire du quatrième circuit citée dans Mosby. (Guyer Decl. ¶ 15).
Nous avons réussi à créer une IA qui n’est pas terrible en matière de Bluebooking ! LES ORDINATEURS SONT COMME NOUS !
Contrairement aux cas d’hallucinations précédents, cette erreur menace de devenir une pierre d’achoppement pour de nombreux avocats, car la plateforme donne en fait à l’utilisateur le bon cas à lire afin que l’avocat vérifie fidèlement le cas pour garantir qu’il n’induit pas le tribunal en erreur – mais s’il n’est pas vigilant, il peut répéter la mauvaise citation et générer beaucoup de confusion inutile.
Hélas, les citations n’étaient pas le seul problème :
Les citations attribuées qui n’apparaissent pas textuellement dans les affaires citées, Graves c. Lioi et Bostock c. Clayton County, reflètent néanmoins avec précision les principes discutés dans ces affaires (Guyer Decl. ¶ 12). La formulation « décidé par implication nécessaire » dans Graves c. Lioi, bien qu’il ne s’agisse pas d’une citation directe, énonce correctement la doctrine du droit de l’affaire telle qu’appliquée par la Cour d’appel du quatrième circuit (Guyer Decl. ¶ 17). De même, l’expression « tourner la loi en dérision » dans Bostock c. Clayton County, bien que mal citée, s’aligne sur l’accent mis par la Cour suprême sur l’évitement des constructions législatives qui conduiraient à des conséquences absurdes (Guyer Decl. ¶ 18).
Christine Lemmer-Webber est reconnue pour avoir surnommé l’IA générative « l’explication mansplaining en tant que service ». De par sa conception, elle essaie de donner à l’utilisateur ce qu’il veut, et elle est prête à parler haut et fort et avec assurance pour y parvenir. C’est ainsi que les hallucinations se sont produites et c’est maintenant ainsi qu’elle manipule volontairement le langage qu’elle utilise pour donner à l’avocat de fausses citations. Comme l’explique Guyer, les citations ne sont pas réellement fausses à propos des affaires. En fait…
Je comprends maintenant que lorsque les GPT « voient » une affaire, ils voient le document étendu, y compris les citations internes à l’autorité. Les GPT ont vu la référence de Wilson à la loi Touhy incorporée dans Mosby. J’aurais dû inclure la citation à United States v. Wilson.
Par exemple, Guyer explique dans sa déclaration qu’il a constaté que la citation « se moquer de la loi » aurait dû être « absurdité » parce que c’est le langage utilisé dans l’avis de Bostock, mais l’IA avait extrait « moquerie » des citations de la chaîne Bostock cite sans se rendre compte qu’il s’agissait de cas entièrement différents – bien que toujours utiles.
Ces problèmes liés à la recherche en IA sont bien plus nuancés que ceux que nous avons vus l’année dernière, mais ils n’en demeurent pas moins des problèmes. En effet, ils pourraient être plus graves, car contrairement à des cas entièrement faux, des erreurs comme celles-ci pourraient être négligées par toutes les personnes impliquées et finir par aboutir à une opinion qui deviendrait « inutile » pour les futurs chercheurs.
Mais est-ce que cela mérite une sanction ? Bof. Il a cité des cas réels avec une réelle pertinence et des citations qui auraient pu être erronées mais qui n’étaient pas trompeuses quant aux conclusions. Guyer démontre assez bien que l’attention médiatique portée à l’IA et les coups de fronde et de flèches des juges grandiloquents ont favorisé des doigts de gâchette de sanctions indûment irrités.
Et jusqu’à l’avènement des GPT et une vague d’affaires sensationnalistes en 2024, les citations erronées et les citations erronées des avocats suscitaient rarement la mention de la règle 11, et n’entraînaient presque jamais de sanction, et au moins une fois, une « légèreté ». Mais dans le rythme vertigineux de la technologie des salles d’audience de ChatGPT et de « l’avocat chat Zoom », notre profession est sensible aux erreurs de pratique technologique.
Le corollaire de ne pas se précipiter pour imputer les erreurs humaines à la technologie est de ne pas agir comme si le ciel allait tomber chaque fois que la technologie commet une erreur qui aurait tout aussi bien pu provenir d’un humain. Si un humble associé avait copié et collé la mauvaise citation de WL ou mélangé « absurdité » et « moquerie » et que ces erreurs se retrouvaient dans la version finale, nous ne parlerions pas de sanctions. Le tribunal continuerait simplement son travail et l’associé vivrait avec un sentiment de culpabilité débilitant. C’est un modèle qui a fait ses preuves !