Alors que les professionnels du droit explorent de plus en plus l’utilisation de l’IA générative pour faciliter la recherche, la rédaction et d’autres tâches juridiques, un défi important apparaît : le strict devoir de confidentialité qui régit la pratique des avocats est en contradiction avec les besoins du grand modèle linguistique (LLM). entraînement.
Pour que l’IA puisse comprendre et répondre efficacement aux nuances des juridictions juridiques, elle a besoin de données complètes – des données qui, dans le domaine juridique, sont souvent entourées de confidentialité.
Nous avons plus d’informations que jamais sur la façon dont ces technologies d’IA révolutionnaires influenceront l’avenir du secteur juridique. Pour en savoir plus, consultez notre dernier rapport sur les tendances juridiques.
Le paradoxe des compétences
L’obligation première de l’avocat est d’assurer une représentation compétente, comme le prévoient les règles de compétence de la profession juridique. Cela comprend la responsabilité de maintenir à jour ses connaissances et, comme le précise la règle 3.1-2 du Code modèle de déontologie professionnelle de la Fédération des ordres professionnels de juristes du Canada, de comprendre et d’utiliser de manière appropriée la technologie pertinente, y compris l’IA. Cependant, les avocats sont également liés par la règle 3.3-1, qui impose la stricte confidentialité de toutes les informations sur les clients.
De même, aux États-Unis, l’American Bar Association a publié l’avis formel 512 sur les outils généraux d’intelligence artificielle. Ce document souligne que les avocats doivent tenir compte de leurs devoirs éthiques lorsqu’ils utilisent l’IA, y compris la compétence, la confidentialité des clients, la supervision et les honoraires raisonnables.
Ce paradoxe crée une situation sans issue pour les professionnels du droit : s’ils doivent utiliser l’IA pour rester compétents, ils sont empêchés d’améliorer les modèles d’IA en raison de leur incapacité à partager les détails des affaires. Sans données juridiques complètes, les LLM sont souvent sous-formés, en particulier dans des domaines spécialisés du droit et des juridictions spécifiques.
En conséquence, les outils d’IA peuvent produire des résultats incorrects ou non pertinents du point de vue juridictionnel, augmentant ainsi le risque d’« hallucinations juridiques » – des informations juridiques fabriquées ou inexactes.
Hallucinations juridiques : un problème persistant
Les hallucinations juridiques constituent un problème important lors de l’utilisation des LLM dans le travail juridique. Des études ont montré que les LLM, tels que ChatGPT et Llama, génèrent fréquemment des conclusions juridiques incorrectes. Ces hallucinations sont répandues lorsqu’on les interroge sur des affaires judiciaires spécifiques, avec des taux d’erreur pouvant atteindre 88 %.
Cela est particulièrement problématique pour les avocats qui s’appuient sur l’IA pour accélérer la recherche ou la rédaction, car les modèles peuvent ne pas faire la différence entre les lois régionales nuancées ou fournir de faux précédents juridiques. L’incapacité de l’IA à gérer correctement les variations des lois entre les juridictions témoigne d’un manque fondamental de données de formation.
Le piège de la confidentialité
Le cœur du problème réside dans l’interdiction faite aux professionnels du droit de partager le produit de leur travail avec les systèmes de formation à l’IA en raison d’obligations de confidentialité. Les avocats ne peuvent pas, de manière éthique, divulguer les subtilités des dossiers de leurs clients, même dans le but de former une IA plus compétente. Alors que les LLM ont besoin de ce vaste pool de données juridiques pour s’améliorer, les avocats sont liés par des règles de confidentialité qui leur interdisent de partager les informations de leurs clients sans autorisation expresse.
Cependant, le maintien de ce cloisonnement strict des informations au sein de la profession juridique limite le développement d’une IA compétente. Sans accès à des données juridiques diverses et spécifiques à chaque juridiction, les modèles d’IA se retrouvent coincés dans une « monoculture juridique » – récitant des notions de droit trop généralisées qui ne tiennent pas compte des variations locales, en particulier dans les juridictions plus petites ou moins importantes.
La solution : un partage d’informations réglementé
Une solution potentielle à ce problème consiste à donner aux régulateurs juridiques, tels que les barreaux et les barreaux, les moyens d’agir en tant qu’intermédiaires pour la formation en IA.
La plupart des règles autorisent le partage de dossiers avec les régulateurs sans enfreindre la confidentialité. Les régulateurs pourraient imposer le partage de dossiers anonymisés ou filtrés de leurs membres dans le but spécifique de former des modèles d’IA juridique, garantissant ainsi que l’outil d’IA reçoit un large éventail de données juridiques tout en préservant la confidentialité des clients.
En exigeant que les avocats soumettent leurs données par l’intermédiaire d’un organisme de réglementation, le processus peut être étroitement surveillé pour garantir qu’aucune information d’identification n’est partagée. Ces fichiers anonymisés seraient d’une valeur inestimable pour former les modèles d’IA afin de comprendre les variations complexes du droit entre les juridictions, réduisant ainsi le risque d’hallucinations juridiques et permettant des résultats d’IA plus fiables.
Avantages pour la profession juridique et le public
Les avantages de cette approche sont doubles :
Premièrement, les avocats auraient accès à des outils d’IA beaucoup plus précis et adaptés aux juridictions, ce qui les rendrait plus efficaces et améliorerait la qualité globale des services juridiques. Deuxièmement, le public bénéficierait de meilleurs résultats juridiques, car les avocats assistés par l’IA seraient mieux équipés pour traiter les affaires de manière rapide et compétente.
En rendant obligatoire ce processus de partage de données, les régulateurs peuvent contribuer à briser le cycle actuel dans lequel les professionnels du droit ne sont pas en mesure de contribuer aux modèles d’IA ou d’en bénéficier pleinement. Les modèles partagés pourraient être publiés sous licences open source ou Creative Commons, permettant aux professionnels du droit et aux développeurs de technologies d’affiner et d’améliorer continuellement l’IA juridique.
Ce libre accès démocratiserait à terme les ressources juridiques, donnant même aux petites entreprises ou aux praticiens individuels l’accès à de puissants outils d’IA auparavant réservés à ceux disposant de ressources technologiques importantes.
Conclusion : une voie à suivre
Le strict devoir de confidentialité est essentiel au maintien de la confiance entre les avocats et leurs clients, mais il entrave également le développement d’une IA juridique compétente. Sans accès au vaste pool de données juridiques enfermées derrière des règles de confidentialité, l’IA continuera de souffrir de lacunes dans les connaissances spécifiques aux juridictions, produisant des résultats qui pourraient ne pas être conformes aux lois locales.
La solution réside dans les régulateurs juridiques, qui sont parfaitement placés pour faciliter le partage de données juridiques anonymisées à des fins de formation à l’IA. En filtrant les dossiers clients fournis par les organismes de réglementation, les avocats peuvent continuer à honorer leur devoir de confidentialité tout en permettant également le développement de modèles d’IA mieux entraînés.
Cette approche garantit que l’IA juridique profitera non seulement à la profession juridique mais également au grand public, contribuant ainsi à créer un système juridique plus efficace, plus efficient et plus juste. En s’attaquant à ce « piège de la confidentialité », la profession juridique peut progresser vers l’avenir, en exploitant la puissance de l’IA sans sacrifier ses obligations éthiques.
Apprenez-en davantage sur l’impact de l’IA sur les cabinets d’avocats dans notre dernier rapport sur les tendances juridiques. L’automatisation ne se contente pas de remodeler le secteur juridique, mais laisse également de vastes opportunités aux cabinets d’avocats de combler le fossé judiciaire tout en augmentant leurs profits.
Remarque : Cet article a été initialement publié par Joshua Lenon sur LinkedIn et est basé sur une conférence éclair qu’il a donnée lors d’un récent événement de la Vancouver Tech Week organisé par Toby Tobkin.
Nous avons publié cet article de blog en octobre 2024. Dernière mise à jour : 30 octobre 2024.
Classé dans : Marketing