Snell c. United Specialty Insurance Company, 11e Cour d’appel des États-Unis, n° 22-12581.
NOUS Appels Juge Kevin Newsom de le 11e États-Unis Circuit Tribunal de Appels a écrit dans Snell c. Uni Spécialité Assurance Quoi. et concordant avis dont exprimer but était à offre idées à propos comment juges pourrait utiliser génératif IA. Tout au long d’un avis de 32 pages, Newsom explique son processus de prise de décision en détaillant son utilisation de ChatGPT et d’autres produits de modèles linguistiques étendus.
Une compagnie d’assurance a refusé la couverture de son preneur d’assurance, un paysagiste, dans le cadre d’une réclamation pour négligence impliquant l’installation d’un trampoline creusé. La principale question en appel était de déterminer si l’installation d’un trampoline tombait sous la définition d’« aménagement paysager » telle qu’elle est énoncée dans la politique.
Cependant, il a mentionné que l’altercation l’a amené à réfléchir aux avantages potentiels de l’utilisation de programmes d’IA générative tels que ChatGPT d’OpenAI, Gemini de Google et Claude d’Anthropic pour aider les tribunaux à interpréter le sens ordinaire des mots dans des documents tels que les contrats d’assurance.
Newsom a déclaré qu’il avait passé des heures à rechercher comment « aménagement paysager » est habituellement compris, et que dans un « accès de frustration » après avoir consulté des dictionnaires, il a chargé un employé de demander exactement cela à ChatGPT.
La définition résultante était sensée et « moins folle que je ne l’avais craint », ce qui a incité Newsom à demander ensuite à ChatGPT si l’installation d’un trampoline enterré était un « aménagement paysager ».
ChatGPT a répondu oui. “L’aménagement paysager implique de modifier les caractéristiques visibles d’un espace extérieur à des fins esthétiques ou pratiques, et l’ajout d’un trampoline enterré modifierait l’apparence et la fonction de l’espace”, a déclaré ChatGPT.
Newsom a déclaré qu’il était « entièrement » d’accord avec l’évaluation du juge en chef de la Cour suprême des États-Unis, John Roberts, dans son rapport du 31 décembre, selon laquelle l’utilisation de l’IA dans la profession juridique nécessite « prudence et humilité ».
“Mais ce qui est important, c’est que je suis également d’accord avec ce que je considère comme l’hypothèse du rapport selon laquelle l’IA est là pour rester”, a écrit Newsom. Il me semble qu’il est désormais temps de réfléchir à la manière de l’utiliser de manière rentable et responsable. »
Ce point de vue a été exprimé alors que les tribunaux du pays traitent de l’émergence rapide des programmes d’IA et se demandent si des réglementations devraient être mises en œuvre sur leur utilisation par les professionnels du droit.
Publié par : www.lawyer-monthly.com – 7 juin 2024