Vous avez déjà entendu dire que l’intelligence artificielle promet de révolutionner le droit. Les avocats dotés d’IA peuvent exploiter la polyvalence de modèles linguistiques de pointe pour dynamiser leur pratique, en favorisant efficacement la réussite de leurs clients grâce à des solutions d’IA dédiées et à la pointe du secteur.
Mais saviez-vous que l’IA a également le pouvoir de révolutionner la pratique non autorisée du droit ?
Les autorités de Caroline du Sud affirment que Nathan Chambers a exercé le droit de manière non autorisée, représentant des clients sous le nom de son véritable père avocat. Selon le rapport du Post & Courier publié plus tôt ce mois-ci, le jeune Chambers a déclaré sur LinkedIn qu’il « sait comment plaider, a fréquenté l’Université de Californie à Berkeley et a une “passion pour le droit”. » Et bien que ces trois affirmations puissent être techniquement exactes (bien qu’elles ne le soient probablement pas, Berkeley n’a aucune trace de lui, même en tant qu’étudiant de premier cycle), l’impression qu’elles donnent d’un avocat formé à la Berkeley Law School est… moins exacte.
Mais il y a un nouveau problème dans cette affaire. Nous avons tous entendu parler d’avocats qui ont fait un usage abusif de l’IA dans leur pratique, mais Chambers a peut-être utilisé l’outil pour faire valoir son droit à la confidentialité :
Pour maintenir cette mascarade, Chambers a dû déposer des documents juridiques pour les clients avec lesquels il travaillait. L’un d’eux est tombé sur le bureau du juge Danny Singleton, qui a déclaré lors d’une audience pour outrage au tribunal cette semaine qu’il avait estimé que la formulation du document suggérait que Chambers avait peut-être utilisé l’IA pour le rédiger.
On ne sait pas exactement quelle « formulation » a déclenché le sens de détection de l’IA du juge. Alors que tout le monde, des juges aux professeurs d’anglais du collège, s’efforce de détecter les compositions de GenAI, une intuition résolument non scientifique s’est installée. Les cas hallucinés sont une chose, mais un texte guindé et une utilisation excessive du mot « crucial » ne signifient pas nécessairement qu’un ordinateur a rédigé le dossier.
Chambers a refusé de répondre à l’accusation d’IA, mais il a déclaré qu’il était désolé.
« Je n’ai jamais eu l’intention de causer des ennuis au tribunal », a déclaré Chambers au Post. « Comme j’ai vu mon père et ma sœur pratiquer le droit tout au long de ma vie et que j’ai vu ma vie partir en fumée, j’ai un peu perdu la tête. »
L’entreprise où travaillait M. Chambers a confirmé que Nathan avait essayé d’utiliser le compte Lexis+ AI de l’entreprise, mais sans succès.
Sérieusement… félicitons Chambers d’avoir essayé d’utiliser un outil d’IA juridique professionnel ! De vrais avocats demandent à ChatGPT d’halluciner des citations de cas, mais Chambers en savait assez pour rechercher un produit conçu pour fournir des résultats fiables basés sur un ensemble de données fiables. Ce n’est pas une approbation de la pratique illégale du droit, mais de nombreux avocats feraient bien de suivre son exemple sur ce point.
Mais pas pour « usurpation d’identité d’avocat ». Il purge une peine de 60 jours pour outrage au tribunal et est toujours accusé d’avoir usurpé l’identité d’un avocat.
Un homme accusé de se faire passer pour un avocat en utilisant l’IA pour représenter de vrais clients [The Byte]Un avocat doté d’une intelligence artificielle ? Un homme de la Caroline du Sud accusé de s’être fait passer pour un avocat aurait utilisé la technologie pour déposer ses documents. [Post and Courier]
Joe Patrice est rédacteur en chef chez Above the Law et co-animateur de Thinking Like A Lawyer. N’hésitez pas à lui envoyer par e-mail des conseils, des questions ou des commentaires. Suivez-le sur Twitter si vous vous intéressez au droit, à la politique et à une bonne dose d’actualités sportives universitaires. Joe est également directeur général chez RPN Executive Search.