La lecture la plus charitable que l’on puisse donner à Sokolowski et al contre Digital Currency Group, Inc. et al, est que la plainte fédérale pour fraude présentée comme « le premier litige guidé par OpenAI o1 pro » se lit peut-être à 98,8 % comme un dossier judiciaire parfaitement préparé de manière professionnelle. Mais comme la similarité génétique de 98,8 pour cent entre les chimpanzés et les humains, ce 1,2 pour cent est assez important et c’est ce qui transforme la plainte, présage de l’avenir d’un avocat robot, en un incendie de benne à ordures qui ne demande qu’à être rejeté.
Les plaignants Stephen Sokolowski et Christopher Sokolowski ont intenté cette action devant le tribunal de district américain du Middle District de Pennsylvanie, demandant des dommages-intérêts pour fraude découlant de leur décision de placer « plus de quatre-vingt-dix pour cent (90 %) de leur valeur nette totale » auprès de Genesis Global Trading, une crypto-monnaie. tenue qui a déposé une demande de chapitre 11. Mike Dunford a préparé un fil amusant de sa réaction en direct à l’annonce de l’affaire et à la plainte qui entre dans les mauvaises herbes que vous devriez vérifier.
Selon leur message sur Reddit annonçant le dépôt, les garçons Sokolowski ont décidé de déposer cette plainte après avoir évalué le potentiel de l’utilisation de l’intelligence artificielle pour gérer l’affaire :
Finalement, Claude 3.5 Sonnet est sorti, et il était enfin capable d’évaluer la loi (mais il faisait quand même des erreurs dans l’interprétation de la valeur précédent des cas dans ses données de formation.) Ensuite, OpenAI a changé tout cela avec o1 pro. o1 pro d’OpenAI est un système d’intelligence générale artificielle (AGI) plus intelligent que n’importe quel avocat à qui j’ai parlé.
Vous devriez alors vraiment parler à plus d’avocats.
Il convient également de noter que o1 pro n’est pas, en fait, « une intelligence artificielle générale », terme désignant le Saint Graal de la conception de l’IA où l’algorithme dépassera le raisonnement humain. Étant donné que SkyNet n’a pas conduit la race humaine à l’extinction, on peut affirmer sans se tromper que l’AGI n’est pas arrivée.
Lorsque o1 a été mis à disposition, nous nous sommes rapidement inscrits et l’avons comparé à Gemini Experimental 1206. Nous avons déterminé que les deux étaient acceptables pour aller de l’avant, mais o1 était clairement supérieur dans la compréhension de la jurisprudence et l’anticipation des défenses.
Supérieur à… quoi ? Vers ChatGPT ? Bien sûr. À un avocat ? Non, mais c’est le genre d’absurdités cérébrales qui poussent Elon Musk à dire qu’il peut intégrer « toutes les affaires judiciaires » dans un algorithme et remplacer l’ensemble du système juridique. La « techbrogentsia » imagine le droit comme un essai de collège et qu’un modèle suffisamment développé peut prendre « le droit », appliquer un modèle de faits et obtenir un résultat.
Dans une certaine mesure, c’est la faute des médias grand public qui traitent les hallucinations comme un obstacle au droit de l’IA au lieu de simplement comme un outil modérément utile entre les mains d’avocats stupides. Les hallucinations sont inévitables dans l’IA générative, puisque tout le but de la technologie est de deviner des mots qui rendront l’utilisateur heureux. Mais il est également peu probable que les hallucinations aient de l’importance dans un avenir proche. Les acteurs sérieux du jeu légal de l’IA (lire : pas Elon) dépensent des ressources massives pour protéger l’utilisateur final des hallucinations. Les hallucinations ne seront pas le problème, le problème sera de savoir comment analyser et sélectionner parmi des informations précises mais pas nécessairement utiles… ce qui est l’un de ces 1,2 pour cent de problèmes qu’un humain atteint d’un JD doit gérer.
Et cette plainte interpelle cet éditeur formé par JD. Elle continue à proposer des requêtes préventives pour rejeter des réponses qui ne sont pas du tout pertinentes dans une première plaidoirie. Mais il s’agit d’un produit de la méthodologie des plaignants, qui a demandé à l’algorithme d’examiner la plainte initiale d’IA et de préparer une requête en rejet d’IA, puis de se faire passer pour un juge et d’évaluer cette requête en rejet par rapport à la plainte et d’intégrer le tout dans .
J’ai exécuté cette simulation plusieurs fois, et le dernier « juge » a rejeté la requête 0 fois sur 10.
D’après le contexte, je pense qu’il voulait dire « a accueilli la requête », mais je dirai que je pense également que le juge rejettera l’inévitable requête visant à rejeter « 0/10 fois ».
Mais chemin faisant, la plainte met en lumière certains faits… importants. Dunford demande : « 10 : Oh mon Dieu, ces véritables marionnettes tentent de percer leur propre voile corporatif » et répond…
Vous voyez, un avocat aurait pu réfléchir à cette affaire en se basant sur cette allégation. Ou la raison connexe pour laquelle ils pourraient vouloir percer leur propre voile à l’envers…
L’IA générative pourrait bien être une technologie révolutionnaire pour le secteur juridique, mais elle ne parviendra pas à y parvenir en remplaçant les tâches essentielles des avocats. Non seulement parce que cela soulève de sérieuses préoccupations éthiques, mais aussi parce que l’IA ne sera jamais assez intelligente pour faire cela. Ce que nous voyons actuellement de l’IA est à peu près aussi bon que possible. Cela ne veut pas dire qu’il ne s’améliorera pas dans l’exécution des tâches avec raffinement, mais à mesure que la technologie progresse, nous ne parlons pas d’aller de Kitty Hawk à la lune, nous parlons de papier toilette légèrement plus doux que c’était dans les années 50. Un rapport préparé par Goldman Sachs a révélé que même les passionnés d’IA admettent que des améliorations linéaires nécessiteront une augmentation exponentielle des investissements en formation. Ce n’est ni durable ni viable pour permettre à l’IA de gérer des litiges complexes.
Sans progrès exogènes comme l’informatique quantique ou une puissance de fusion viable pour remédier à la fuite d’énergie, l’IA générative pourrait s’améliorer dans ce qu’elle fait, mais elle ne fera pas beaucoup plus qu’aujourd’hui… ce qui reste un gain de temps énorme, potentiellement indispensable. outil destiné aux avocats qualifiés, mais il ne remplace pas.
Il ne s’agit pas non plus d’un outil d’accès à la justice qui offrirait aux justiciables professionnels un robot avocat gratuit. Peut-être pour des infractions routières courantes. Mais le potentiel d’accès à la justice – pour les litiges – de l’IA générative ne consiste pas à aider les gens à résoudre leurs problèmes juridiques, mais à les aider à prendre conscience qu’ils ont des problèmes juridiques. De nombreuses injustices se produisent parce que les gens ne savent pas s’ils ont un dossier et ne sont pas disposés à dépenser de l’argent pour le découvrir. L’IA peut dire à quelqu’un qui s’interroge sur son sort : « Oui, en fait, ce n’est peut-être pas légal et vous devriez vous sentir en confiance en appelant quelqu’un à ce sujet. »
Malheureusement, tant que nous n’aurons pas répondu à nos attentes quant à ce que l’IA est réellement capable d’accomplir, nous verrons davantage de ce désordre devant les tribunaux.
(Plainte page suivante…)
Annonce du premier litige fédéral pro-guidé o1 [Reddit]
Plus tôt : L’IA générative… Et si c’était aussi bon que possible ?Elon Musk alimente l’IA « toutes les affaires judiciaires », promet qu’elle remplacera les juges parce qu’il est un idiotPour l’amour de tout ce qui est saint, arrêtez de blâmer ChatGPT pour ce mauvais dossier
Joe Patrice est rédacteur en chef chez Above the Law et co-animateur de Thinking Like A Lawyer. N’hésitez pas à envoyer par courrier électronique des conseils, des questions ou des commentaires. Suivez-le sur Twitter ou Bluesky si vous êtes intéressé par le droit, la politique et une bonne dose d’actualités sportives universitaires. Joe est également directeur général chez RPN Executive Search.