La volonté de s’adapter aux temps changeants est essentielle dans l’environnement technologique actuel, en évolution rapide. Ceci est d’autant plus important que les progrès de l’intelligence artificielle (IA) se produisent à un rythme exponentiel, poussant nos tribunaux vers des territoires inexplorés regorgeant de preuves altérées par l’IA, comme les vidéos deepfake.
Par exemple, dans une affaire récente dans l’État de Washington, un juge de la Cour supérieure du comté de King s’est prononcé sur l’admissibilité d’une vidéo améliorée par l’IA dans le cadre d’une poursuite pour triple meurtre. La défense a cherché à présenter en preuve une vidéo de téléphone portable améliorée grâce à la technologie de l’IA.
Le juge Leroy McCullough a exprimé son inquiétude quant au manque de transparence concernant les algorithmes de l’outil d’édition d’IA avant d’exclure l’admission de la vidéo modifiée. Il a déterminé que « l’admission de ces preuves améliorées par l’IA conduirait à une confusion des questions et à une confusion des témoignages oculaires, et pourrait conduire à un procès long dans le cadre d’un procès sur le processus non révisable par les pairs utilisé par le tribunal ». Mode IA.
Cette affaire n’est qu’un exemple du dilemme émergent auquel sont confrontés nos tribunaux de première instance. Déterminer l’admissibilité des vidéos créées à l’aide d’outils d’IA présente un défi, même pour les juges les plus experts en technologie, qui sont relativement peu nombreux. La résolution de ces questions s’est révélée d’autant plus problématique en l’absence de lignes directrices existantes ou de règles de preuve actualisées. Heureusement, une aide est en route sous la forme de directives éthiques et de propositions de modifications aux règles de preuve.
Dans un récent rapport publié le 6 avril par le groupe de travail sur l’intelligence artificielle de l’Association du Barreau de l’État de New York, la question des preuves créées par l’IA et les efforts actuels pour y remédier ont été discutés. Le long « Rapport et recommandations du groupe de travail de l’Association du Barreau de l’État de New York sur l’intelligence artificielle » de 91 pages aborde un large éventail de questions, notamment : 1) l’évolution de l’IA et de l’IA générative, 2) ses risques et avantages, 3 ) son impact sur la société et la pratique du droit, et 4) les lignes directrices et recommandations en matière d’éthique pour les avocats qui utilisent ces outils.
L’un des domaines d’intérêt était l’impact des preuves deepfake créées par l’IA sur les essais. Le groupe de travail a reconnu le défi posé par les preuves synthétiques, expliquant que « (dé) trancher les questions de pertinence, de fiabilité, d’admissibilité et d’authenticité ne peut toujours pas empêcher la présentation de fausses preuves au tribunal et à un jury. »
Selon le groupe de travail, la menace de fausses preuves créées par l’IA est importante et pourrait avoir un impact sur l’administration de la justice d’une manière jamais vue auparavant. À mesure que les outils d’IA générative progressent, leurs résultats deviennent de plus en plus sophistiqués et trompeurs, ce qui rend extrêmement difficile pour les juges des faits de « déterminer la vérité des mensonges lorsqu’ils sont confrontés aux deepfakes ». Des efforts sont en cours au niveau national et étatique pour répondre à ces préoccupations.
Premièrement, le Comité consultatif pour les règles fédérales de preuve examine une proposition de l’ancien juge de district américain Paul Grimm et du Dr Maura R. Grossman de l’Université de Waterloo. Leur suggestion est de réviser la norme de la règle 901(b)(9) pour les preuves admissibles de « exactes » à « fiables ».
La nouvelle règle se lirait comme suit (ajouts en gras) :
(A) des preuves le décrivant et démontrant qu’il produit un résultat précis, valide et fiable ; et (B) si le proposant admet que l’élément a été généré par l’intelligence artificielle, des preuves supplémentaires qui : (i) décrivent le logiciel ou le programme utilisé ; et (ii) montre qu’il a produit des résultats valides et fiables dans ce cas.
Le comité consultatif recommande également l’ajout d’une nouvelle règle, 901(c), pour faire face à la menace posée par les deepfakes :
901(c) Preuve électronique potentiellement fabriquée ou altérée. Si une partie contestant l’authenticité d’une preuve générée par ordinateur ou autre preuve électronique démontre au tribunal qu’il est plus probable qu’improbable qu’elle soit fabriquée ou modifiée en tout ou en partie, la preuve n’est admissible que si le proposant démontre que sa valeur probante l’emporte sur son effet préjudiciable sur la partie qui conteste la preuve.
De même, à New York, des amendements à la loi de procédure pénale et au CPLR ont été proposés par le député de l’État de New York, Clyde Vanel, qui a présenté le projet de loi A 8110, qui modifie la loi de procédure pénale et la loi et les règles de pratique civile concernant l’admissibilité des preuves. créés ou traités par l’intelligence artificielle.
Il suggère de faire la distinction entre les preuves « créées » par l’IA lorsqu’elle produit de nouvelles informations à partir d’informations existantes et les preuves « traitées » par l’IA lorsqu’elle produit une conclusion basée sur des informations existantes.
Il affirme que les preuves « créées » par l’IA ne seraient pas admissibles en l’absence de preuves indépendantes « établissant la fiabilité et l’exactitude de l’IA utilisée pour créer les preuves ». Les éléments de preuve « traités » par l’IA nécessiteraient que la fiabilité et l’exactitude de l’IA utilisée soient établies avant l’admission des résultats de l’IA en preuve.
Outre les changements législatifs, il existe d’autres moyens de s’adapter aux changements provoqués par l’IA. Aujourd’hui plus que jamais, la compétence technologique nécessite d’adopter et d’apprendre cette technologie en évolution rapide et son impact sur la pratique du droit à tous les niveaux de la profession, des avocats et étudiants en droit aux juges et régulateurs. Cela implique de comprendre comment les lois et réglementations existantes s’appliquent et si de nouvelles sont nécessaires pour résoudre les problèmes émergents susceptibles de réduire l’efficacité du processus judiciaire.
Le paysage changeant de l’IA présente à la fois des opportunités et des défis pour le système juridique. Même si les outils basés sur l’IA peuvent améliorer l’efficacité et l’analyse, les preuves créées par l’IA, comme les deepfakes, constituent une menace importante pour le processus de recherche de la vérité.
Les efforts en cours, depuis les modifications proposées aux règles jusqu’à une éducation accrue, démontrent une approche proactive pour répondre à ces préoccupations. À mesure que l’IA continue de progresser, une stratégie à plusieurs volets combinant des réformes juridiques, une culture technologique au sein de la profession juridique et un engagement en faveur de l’apprentissage continu est nécessaire pour garantir un système juridique juste et équitable à l’ère de l’intelligence artificielle.
Nicole Black est avocate à Rochester, New York et directrice des relations commerciales et communautaires chez MyCase, un logiciel Web de gestion de cabinets d’avocats. Elle blogue depuis 2005, écrit une chronique hebdomadaire pour le Daily Record depuis 2007, est l’auteur de Cloud Computing for Lawyers, co-auteur de Social Media for Lawyers: the Next Frontier et co-auteur de Criminal Law in New York. Elle est facilement distraite par le potentiel des gadgets technologiques brillants et brillants, ainsi que par la bonne nourriture et le bon vin. Vous pouvez la suivre sur Twitter à @nikiblack et elle est joignable à niki.black@mycase.com.