Nous avons beaucoup parlé des avantages de l’IA, mais nous comprenons également les risques qu’elle comporte. Malheureusement, les cas d’avocats sanctionnés pour s’être fiés à des notes générées par l’IA ont montré à la profession que l’IA n’est pas sans complications et ne saurait remplacer la sagesse d’un avocat.
Nous avons également vu les tribunaux réagir à l’essor de l’IA dans la profession juridique, notamment lorsqu’un juge du Texas a émis une directive sur la certification obligatoire concernant l’intelligence artificielle générative exigeant que tous les avocats qui comparaissent devant lui certifient que toute partie d’un dossier généré par l’intelligence artificielle a été vérifiée pour en vérifier l’exactitude par un être humain.
Tout cela ne signifie pas que l’IA n’a aucun rôle à jouer dans la création de notes juridiques. En fait, lorsqu’elle est utilisée de manière responsable, l’IA peut contribuer à rationaliser considérablement le processus de rédaction. Ci-dessous, nous allons nous pencher sur les histoires connexes évoquées ci-dessus et partager nos réflexions sur l’utilisation de l’IA pour les notes juridiques (de manière responsable !).
Les avocats utilisent ChatGPT pour créer un dossier, mais l’IA se trompe
En juin 2023, un juge fédéral de New York a sanctionné deux avocats qui ont utilisé ChatGPT pour rédiger un mémoire juridique.
Pourquoi ? Parce que ChatGPT s’est trompé.
Plus précisément, les avocats ont présenté un mémoire citant des cas qui n’existaient pas (sans doute sans vérifier si ces cas existaient). Il s’agit là d’un excellent exemple du risque d’« hallucinations » de l’IA, c’est-à-dire des cas où le programme génère des informations insensées ou inexactes.
Lorsque les avocats de la partie adverse ont mis en doute l’origine des affaires citées, le juge président a demandé aux avocats de produire des copies des affaires. Il est apparu que les affaires en question n’étaient pas réelles.
Par la suite, les deux avocats qui ont préparé le mémoire d’AI ont été sanctionnés d’une amende de 5 000 $ après que le juge a déterminé qu’ils avaient agi de mauvaise foi et fait des déclarations trompeuses au tribunal.
Malheureusement, ce n’est pas la dernière fois que des hallucinations provoquées par l’IA ont été retrouvées dans des mémoires juridiques. En février 2024, un avocat canadien a été réprimandé pour avoir fourni un mémoire citant des cas inexistants générés par l’IA dans une affaire de droit de la famille.
Pas de dossiers d’IA sans examen humain dans (certains) tribunaux du Texas
Dans tout le pays, et dans la foulée des sanctions, une autre nouvelle concernant l’IA a créé le buzz : le juge de district américain Brantley Starr a émis une directive exigeant que les avocats certifient s’ils ont utilisé l’IA pour créer des dossiers et, si tel est le cas, qu’ils confirment qu’un humain a examiné ces dossiers pour en vérifier l’exactitude.
La directive du juge Starr sur la certification judiciaire de l’IA semble avoir inspiré plusieurs ordres permanents exigeant des certifications similaires au Texas (au moment de la publication, une recherche de « intelligence artificielle » sur la page des règles locales, des formulaires et des ordres permanents des tribunaux du Texas a fait apparaître cinq ordres permanents).
Certifications judiciaires de l’IA et devoirs des avocats
Il est clair que l’IA a un énorme potentiel pour façonner le secteur juridique, mais en adoptant de nouvelles technologies, il est également essentiel que les avocats ne perdent pas de vue leurs devoirs envers leurs clients, leurs avocats adverses et les tribunaux.
La directive du juge Starr porte sur une responsabilité essentielle des avocats, celle d’agir honnêtement et de bonne foi dans leurs relations avec le tribunal. Cette responsabilité va bien au-delà de ce que l’avocat dit au tribunal et s’étend à l’exactitude des documents déposés, des observations et des mémoires.
Et, avec d’autres juges suivant l’exemple au Texas, nous verrons probablement beaucoup plus de directives de ce type apparaître à travers le pays à mesure que l’IA sera plus largement acceptée dans le secteur juridique.
N’oubliez pas de lire notre article sur l’IA dans la salle d’audience.
Utiliser l’IA pour rédiger des briefs de manière responsable
Cela étant dit, les avocats devraient-ils utiliser l’IA pour rédiger leurs mémoires ? À condition qu’ils le fassent de manière responsable, oui.
L’IA a le potentiel de changer radicalement la façon dont les avocats travaillent, et l’exploitation de l’IA pour aider à générer des idées et à rédiger des mémoires n’est qu’une des façons dont l’IA peut contribuer à faciliter le travail des avocats.
Il est toutefois important de garder à l’esprit que l’IA n’est pas parfaite. Comme nous l’avons vu plus haut, elle peut se tromper. Si vous utilisez l’IA pour rédiger des briefs, considérez tout produit de travail découlant de vos demandes d’IA comme une première ébauche très approximative.
Nos conseils pour rédiger des briefs avec l’IA
Voici quelques conseils pour vérifier l’exactitude des briefs d’IA :
Comprendre les pièges potentiels de l’utilisation de l’IA et les éviter
Notez que l’IA comporte un certain nombre de défis pour les cabinets d’avocats que vous devrez prendre en compte avant même de l’utiliser, notamment des considérations relatives à la confidentialité et à la confidentialité des données, aux préjugés et à d’autres considérations éthiques.
Ne comptez pas sur l’IA pour votre expertise juridique
Examinez attentivement les arguments ou les points avancés par l’IA et ne les prenez pas au pied de la lettre. N’oubliez pas que vous avez une obligation envers vos clients et les tribunaux et que vous devez vous assurer que vos arguments sont solides en droit et en logique et que vous ne passez à côté d’aucun argument susceptible de servir la cause de votre client.
Vérifiez à nouveau les résultats de l’IA
Vérifiez soigneusement tous les cas cités par AI. Confirmez que les cas cités existent réellement en localisant la source principale, assurez-vous que les points soulevés par rapport au cas sont exacts en examinant la source principale et effectuez vos propres recherches pour vous assurer qu’AI vous a fourni les autorités les plus importantes (ou les plus convaincantes) et que vous n’avez pas oublié d’autres cas qui pourraient également vous aider.
Connaissez la position de votre tribunal sur les dossiers d’IA
De plus, que vous ayez l’intention d’utiliser l’IA pour rédiger des mémoires ou pour vous aider dans votre travail juridique, assurez-vous de vous familiariser avec la position de votre tribunal sur l’IA, par exemple si vous devrez inclure une certification concernant votre utilisation de l’IA avec votre dossier.
Conclusions sur l’utilisation de l’IA pour rédiger des notes
En fin de compte, la meilleure façon d’utiliser l’IA – et de minimiser les risques liés à son utilisation – est de comprendre ce que l’IA peut faire et de reconnaître ses limites. L’IA ne comprend pas pleinement les nuances des arguments juridiques. (Dans certains cas, elle n’a même pas accès aux lois et aux affaires les plus récentes !) Elle peut cependant vous aider à élaborer un projet et fournir un soutien limité à la recherche de cas.
Il existe d’autres options pour rendre le processus de rédaction de brief plus efficace. Par exemple, vous pouvez utiliser des modèles de briefs juridiques ou des outils d’automatisation de documents comme Clio Draft pour gagner un temps précieux tout en créant des briefs soignés !
Si vous pratiquez le droit des dommages corporels, n’oubliez pas de consulter notre suite de fonctionnalités spécialement conçues pour les dommages corporels. Vous pouvez non seulement gérer les dossiers médicaux, suivre et résumer les dommages et fournir des estimations de règlement, mais également extraire des informations de champs personnalisés dans vos propres modèles pour créer automatiquement des documents de cas de dommages corporels tels que des plaintes, des demandes et réponses de communication préalable et des demandes de dossiers médicaux.
Pour en savoir plus sur ce que fait l’IA et comment l’utiliser dans votre entreprise, tout en restant conscient des risques éthiques et professionnels, lisez notre guide complet sur l’IA.
Nous avons publié cet article de blog en septembre 2024. Dernière mise à jour : 18 septembre 2024.
Classé dans : Technologie