Accueil Nouvelles quotidiennes De fausses citations dans des mémoires juridiques ont été générées…
Rédaction juridique
De fausses citations dans les mémoires juridiques ont été générées par le programme Google Bard AI, déclare Michael Cohen, ancien avocat de Trump
2 janvier 2024, 10 h 08 CST
Michael Cohen, qui était autrefois avocat de l’ancien président Donald Trump, quitte la salle d’audience du procès civil pour fraude commerciale de Trump à la Cour suprême de New York en octobre. Photo de Yuki Iwamura/Associated Press.
L’ancien avocat Michael Cohen a informé un juge fédéral que les cas inexistants cités dans un mémoire juridique étaient générés par Google Bard, un programme d’intelligence artificielle.
Cohen, qui était autrefois avocat de l’ancien président Donald Trump, avait l’impression que Google Bard était un « moteur de recherche suralimenté » plutôt qu’un programme d’IA, a déclaré son avocat E. Danya Perry, avocat chez Perry Law, dans une lettre adressée au juge descellée vendredi.
Pensant que les cas qu’il avait découverts étaient réels, Cohen les a fournis à l’avocat qui cherchait à mettre fin rapidement à sa libération surveillée, David M. Schwartz, a déclaré Cohen dans un affidavit soumis avec la lettre de Perry. Cohen, qui est désormais radié du barreau, a plaidé coupable en 2018 de violations de financement de campagne et de fraude bancaire et fiscale.
Le New York Times, Reuters et Courthouse News Service font partie des publications couvrant la déclaration.
Cohen avait utilisé Google Bard dans le passé pour « identifier avec succès des informations précises dans d’autres contextes auparavant et n’avait pas apprécié son manque de fiabilité en tant qu’outil de recherche juridique », a déclaré Perry dans sa lettre.
Schwartz a inclus les citations dans son mémoire sans les vérifier parce qu’il avait l’impression erronée que Perry, qui représentait Cohen dans une autre affaire, les avait fournies. Perry a donné à Cohen « des notes très superficielles sur une première ébauche de la motion » qui n’incluaient pas, à l’époque, les fausses citations. Mais elle n’a pas examiné les futures versions de la requête, comme Schwartz en est venu à le croire, a-t-elle déclaré dans sa lettre au juge.
Perry avait représenté Cohen dans une affaire distincte contre Trump devant le tribunal de l’État de New York. Perry a cherché à intervenir dans l’affaire de la libération surveillée au nom de Cohen parce qu’elle pensait que les avocats du gouvernement avaient mal interprété le témoignage de Cohen dans l’affaire Trump. En préparant une requête en réponse au dossier du gouvernement, Perry a découvert que les citations étaient fausses et a révélé le problème au juge de district américain Jesse Furman du district sud de New York.
La divulgation a conduit Furman à émettre une ordonnance pour justifier pourquoi Schwartz ne devrait pas être sanctionné. Le juge ne s’est pas encore prononcé sur la question.
Perry a déclaré qu’elle n’avait pas l’intention de laisser entendre que Schwartz était de mauvaise foi. Mais, a-t-elle ajouté, « même une lecture rapide des cas inexistants en cause ici aurait dû faire sourciller ».
Une citation, par exemple, portait un numéro de dossier de 2021, suggérant que l’accusé avait été inculpé en 2021. Mais l’accusé aurait purgé une peine de 120 mois et aurait été placé en liberté surveillée, une décision qui aurait été confirmée par un appel fédéral. tribunal. Ce serait « une impossibilité chronologique », a écrit Perry.
AI a piégé au moins une douzaine d’avocats ou de justiciables qui ont utilisé ses citations de cas dans des dossiers juridiques, a déclaré Eugene Volokh, professeur à la faculté de droit de l’Université de Californie à Los Angeles, au New York Times.
Le juge en chef John Roberts s’est concentré sur l’IA dans son rapport de fin d’année 2023 sur le système judiciaire fédéral, rapportent le National Law Journal et le SCOTUSblog.
L’IA pourrait être utilisée à l’avenir pour contribuer à accroître l’accès à la justice en fournissant des réponses aux questions de base et en indiquant aux justiciables où trouver des modèles et des formulaires judiciaires, a déclaré Roberts. À mesure que la technologie évolue, les tribunaux devront réfléchir à son utilisation appropriée dans les litiges, a-t-il écrit.
“Toute utilisation de l’IA nécessite prudence et humilité”, a ajouté Roberts.
Il a évoqué un cas précédent dans lequel une « hallucination » d’IA avait donné lieu à des citations de cas inexistants, qui avaient ensuite été incluses dans un mémoire.
« C’est toujours une mauvaise idée », a-t-il observé.
Voir également:
“La réponse à la question des fausses citations implique le secret professionnel de l’avocat, déclare l’avocat de Michael Cohen”
“Les avocats qui ont “double la mise” et défendu les faux cas de ChatGPT doivent payer 5 000 $, selon le juge”