Dans la mesure où les juges fédéraux reconnaissent l’intelligence artificielle générative, c’est pour détourner une publicité bon marché en la dénonçant comme un fléau ou pour détourner cyniquement de la discussion sur le cloaque éthique qui s’est développé sous leur surveillance. Ce qui fait d’un récent concours du onzième circuit par le juge Kevin Newsom un changement de rythme intrigant. Car, au cours d’un avis de 32 pages, Newsom explique comment il a utilisé ChatGPT et d’autres produits de modèles linguistiques à grande échelle pour prendre sa décision.
Et cela a beaucoup de sens.
Une compagnie d’assurance a refusé de couvrir son preneur d’assurance paysagiste dans le cadre d’une réclamation pour négligence concernant l’installation d’un trampoline creusé. En toute honnêteté, cela ressemble à un piège mortel en devenir s’il est parfaitement installé, donc je ne sais pas à quoi ressemblerait une réclamation pour négligence, mais ce n’est ni ici ni là. La question présentée en appel était de savoir si l’installation d’un trampoline compte ou non comme un « aménagement paysager » selon la politique.
Le juge Newsom commence son accord en admettant qu’il était entièrement d’accord avec l’opinion, mais qu’il souhaitait « lever le rideau sur le processus par lequel j’ai réfléchi à l’une des questions de cette affaire ».
Voici la proposition, que je soupçonne que beaucoup condamneront par réflexe comme hérésie, mais que je promets de déballer si on leur en donne l’occasion : Ceux, comme moi, qui croient que le « sens ordinaire » est la règle fondamentale pour l’évaluation des textes juridiques devraient considérer… réfléchissez à la question de savoir si et comment de grands modèles de langage basés sur l’IA, comme ChatGPT d’OpenAI, Gemini de Google et Claude d’Anthropic, pourraient éclairer l’analyse interprétative. Là, après avoir pensé l’impensable, j’ai dit l’indicible.
Chargé de déterminer si « l’installation d’un trampoline enterré » répondait au sens ordinaire de l’aménagement paysager, Newsom a fait tourner ses roues avec la recherche traditionnelle avant de se rendre compte que les systèmes d’intelligence artificielle entraînés sur un large éventail de connaissances accumulées pourraient probablement fournir une réponse plus « ordinaire » que de creuser. à travers des cas :
Et c’est à mi-chemin de ce voyage que j’ai eu la pensée déconcertante qui sous-tend cet écrit séparé : est-il absurde de penser que ChatGPT pourrait être capable de faire la lumière sur ce que signifie le terme « aménagement paysager » ? Au départ, j’ai répondu à ma propre question par l’affirmative : oui, Kevin, c’est franchement absurde. Mais plus j’y réfléchissais longuement et profondément, moins cela me paraissait absurde.
Comme le résume Stephanie Wilkins sur Legaltech News :
Dans les 22 pages suivantes (y compris une annexe), Newsom expose en détail un certain nombre d’avantages qu’il estime que les LLM apportent à la « boîte à outils textualiste… pour éclairer les analyses de sens ordinaire des instruments juridiques ». Ceux-ci inclus:
« Les LLM s’entraînent sur des entrées en langage ordinaire », ce qui les rend adaptés à l’analyse du sens ordinaire, a déclaré Newsom. « Les LLM « comprennent » le contexte. » « Les LLM sont facilement accessibles » aux juges, aux avocats et aux citoyens ordinaires. « La recherche LLM est relativement transparente. “, affirme Newsom, plus encore que la plupart des dictionnaires. “Les LLM présentent des avantages par rapport aux autres méthodes d’interprétation empiriques.”
Il s’agit d’une affaire contractuelle simple où le langage simple est relativement peu controversé. Mais un autre juge fédéral a déjà prévu une extension de la logique de Newsom à une application plus odieuse du « sens ». John Bush, un juge placé sur le sixième circuit en raison de la gestion d’un blog anti-gay à succès, a récemment déclaré à un chapitre de FedSoc qu’il voyait un avenir dans lequel l’IA générative pourrait analyser l’histoire pour sélectionner des coupures de presse aléatoires afin de forger des opinions originales. Pourquoi analyser des pépites d’histoire contextuelle alors qu’une machine peut fournir instantanément uniquement celles qui sont pertinentes pour la rétro-ingénierie d’une décision correspondant aux objectifs politiques contemporains du Parti républicain !
Cela dit, une approche éthique et transparente de l’utilisation de ces outils ne doit pas être rejetée avec l’eau du bain cynique de FedSoc.
Inutile de dire que mon intérêt a été piqué. Mais je ne voulais absolument pas tomber dans le piège d’adopter la définition de ChatGPT simplement parce qu’elle correspondait à mes priorités. (Mauvais.) Donc, dans ce qui aurait pu être une erreur – nous en parlerons plus tard – nous avons posé la question ultime : « L’installation d’un trampoline enterré est-elle un « aménagement paysager » » ? ChatGPT a répondu comme suit :
Oui, l’installation d’un trampoline enterré peut être considérée comme faisant partie de l’aménagement paysager. L’aménagement paysager consiste à modifier les caractéristiques visibles d’un espace extérieur à des fins esthétiques ou pratiques, et l’ajout d’un trampoline enterré modifierait l’apparence et la fonction de l’espace. Il s’agit d’un changement délibéré de l’environnement extérieur, visant souvent à améliorer le paysage global et la convivialité de la zone.
C’est une meilleure signification de « personne dans la rue » que celle que donneraient des années d’opinions sur des litiges en matière d’assurance. Et il est beaucoup moins probable d’halluciner quelque chose d’aussi clair que les aléas de la Convention de Montréal sur la responsabilité des compagnies aériennes.
Moins probable.
(Avis disponible page suivante…)
Le juge du 11e circuit utilise ChatGPT pour statuer sur l’appel et encourage les autres à l’examiner [Legaltech News]
Plus tôt : si vous n’êtes pas celui qui rédige vos mémoires au Texas, il vaut mieux que ce soit un autre humain ! Le juge original salue l’avenir où la tâche fastidieuse de compilation de fausses histoires est remplacée par des hallucinations de l’IA. John Roberts utilise une fois de plus le rapport annuel du pouvoir judiciaire pour exprimer son point de vue. Le plus grand mépris du publicPour l’amour de tout ce qui est saint, arrêtez de blâmer ChatGPT pour ce mauvais mémoire
Joe Patrice est rédacteur en chef chez Above the Law et co-animateur de Thinking Like A Lawyer. N’hésitez pas à envoyer par courrier électronique des conseils, des questions ou des commentaires. Suivez-le sur Twitter si vous êtes intéressé par le droit, la politique et une bonne dose d’actualité sportive universitaire. Joe est également directeur général chez RPN Executive Search.