Lorsque certains malheureux avocats de New York ont soumis un mémoire criblé de citations de cas hallucinés par le géant de l’intelligence artificielle destiné aux consommateurs, ChatGPT, puis ont doublé l’erreur, nous avons pensé que la discipline qui en résulterait servirait de signal d’alarme aux avocats du monde entier. Mais il y en aurait plus. Et plus. Et plus.
Nous avons hésité à plusieurs reprises à déclarer qu’il s’agissait d’un « problème d’IA », car rien dans ces cas ne mettait vraiment en jeu la technologie. Les avocats ont l’obligation de vérifier leurs citations et s’ils lancent des mémoires sans prendre la peine de lire les cas sous-jacents, c’est un problème professionnel, que ChatGPT ait craché l’affaire ou que leur associé d’été ait inséré la mauvaise citation. Réglementer « l’IA » pour un défenseur qui échoue dans son travail semblait, au mieux, passer à côté de l’essentiel et, au pire, empoisonner le puits contre un outil juridique potentiellement puissant avant même qu’il ne décolle.
Une autre défense populaire de l’IA contre les frondes et les flèches des juges démagogiques est que le secteur juridique doit se rappeler que l’IA n’est pas humaine. “C’est comme n’importe quel autre outil puissant – mais finalement stupide – et vous ne pouvez pas lui faire confiance comme vous le feriez avec un humain.” Conçue de cette façon, l’IA échoue parce qu’elle n’est pas assez humaine. Les détracteurs se font caresser l’ego humain et les champions de l’IA peuvent promouvoir leur avenir audacieux où l’IA se rapproche toujours plus de l’humanité.
Mais peut-être que nous avons tout cela à l’envers.
«Le problème avec l’IA, c’est qu’elle ressemble plus à des humains qu’à des machines», m’a dit David Rosen, co-fondateur et PDG de Catylex l’autre jour. “Avec toutes les faiblesses, les inexactitudes et les erreurs idiosyncratiques.” C’est une perspective choquante d’entendre après des mois de bavardages juridiques et techniques sur l’IA générative. Chaque conversation que j’ai eue au cours de la dernière année vise à faire de l’IA une personne plus proche, plus capable d’analyser ce qui est important et ce qui est superflu. Mais plus j’y réfléchis, plus il y a quelque chose dans cette idée. Cela m’a rappelé mon problème avec les outils de recherche basés sur l’IA qui essayaient de trouver la « bonne » réponse alors que cela n’était peut-être pas dans le meilleur intérêt de l’avocat – ou du client.
Comment l’ensemble du discours autour de l’IA pourrait-il changer si nous inversions le scénario ?
Si nous commencions à parler de l’IA comme étant « trop humaine », nous pourrions moins nous soucier de savoir comment elle fait un jugement dangereux entre deux conclusions et nous inquiéter davantage d’un outil qui essaie trop de plaire à ses patrons, commet des erreurs bâclées lorsqu’il saute. à des conclusions et fait la fausse promesse qu’elle peut fournir des informations aux avocats eux-mêmes. Réorientez-vous autour de la promesse d’un outil qui traitera impitoyablement et mécaniquement des tonnes plus d’informations qu’un humain ne pourrait jamais le faire et les fournira à l’avocat dans un format que les humains peuvent digérer et évaluer eux-mêmes.
Rendre l’IA artificielle à nouveau… si vous voulez.
Joe Patrice est rédacteur en chef chez Above the Law et co-animateur de Thinking Like A Lawyer. N’hésitez pas à envoyer par courrier électronique des conseils, des questions ou des commentaires. Suivez-le sur Twitter si vous êtes intéressé par le droit, la politique et une bonne dose d’actualité sportive universitaire. Joe est également directeur général chez RPN Executive Search.