La supervision est un concept familier aux professionnels de divers domaines, y compris aux avocats liés par les règles modèles de l’American Bar Association. Cependant, il n’existe pas encore de définition universellement acceptée d’une supervision réussie ni de bonnes pratiques établies pour superviser les humains ou les machines.
Alors que les avocats sont désormais chargés de superviser la technologie de l’IA, une chose reste sûre : la responsabilité est vitale. Assumer cette responsabilité donne aux avocats le pouvoir de contribuer à façonner l’IA comme une avancée technologique juste et juste qui favorise la quête de la justice dans la société.
En attendant que les dirigeants de l’industrie et du gouvernement développent des cadres officiels de supervision de l’IA et des processus d’audit, voici sept étapes que vous pouvez suivre pour créer dès maintenant une responsabilisation dans l’utilisation de l’IA :
1. Tenir un journal des décisions. Il n’est pas surprenant que, avec la participation d’avocats, la plupart de ces étapes impliquent la documentation. Gardez une trace de vos décisions lorsque vous utilisez l’IA, en particulier les décisions que vous basez sur le résultat d’un outil d’IA (voir 2). Notez quand et pourquoi vous avez décidé d’utiliser un outil spécifique basé sur l’IA. Ce journal servira de référence précieuse pour les améliorations futures et de preuve en cas de problème.
2. Enregistrez la dépendance aux résultats de l’IA. Développez votre tenue de dossiers avec des détails sur toutes les conclusions générées par l’IA sur lesquelles vous vous appuyez, y compris l’outil utilisé et les mesures prises pour vérifier ses conclusions de manière indépendante (voir 3). L’ajout de la date et de l’heure crée un enregistrement chronologique qui peut s’avérer utile en cas de litige juridique concernant votre choix d’utiliser (ou de ne pas utiliser) l’IA.
3. Vérifiez les faits et examinez le contenu généré par l’IA. Les avocats doivent surveiller avec diligence le travail d’IA, tout comme ils le font pour les nouveaux collaborateurs travaillant dans des cabinets d’avocats et des services juridiques. Examinez minutieusement les résultats de l’IA pour garantir leur exactitude, leur crédibilité et leur exhaustivité. Vérifiez toutes les conclusions importantes et le raisonnement juridique fournis par AI avant de finaliser votre travail. Ce faisant, vous défendez l’intégrité de la profession juridique et contribuez à perfectionner la technologie de l’IA pour favoriser son développement en un outil de justice juridique juste, impartial et indispensable.
4. Régler les conflits d’intérêts. Prenez des mesures proactives pour considérer les conflits possibles découlant de votre entreprise, de vos clients, des fournisseurs d’outils d’IA, des modèles d’IA et de la source des ensembles de données utilisés pour former l’IA. Documentez vos considérations et la manière dont vous les avez abordées pour démontrer une conduite transparente et éthique.
5. Testez diverses invites d’IA générative. Expérimentez différentes méthodes pour inciter un outil d’IA générative à explorer les incohérences ou les divergences potentielles dans ses réponses. Cela peut vous aider à découvrir les biais ou les lacunes sous-jacentes d’un système d’IA, à réduire les dommages potentiels et à créer un outil plus robuste et plus utile pour les utilisateurs à mesure que les systèmes d’IA apprennent de vos commentaires.
6. Prévenir et remédier aux résultats biaisés. Empêchez activement la création ou le renforcement de tout biais injuste dans les ensembles de données d’IA et les modèles de formation. Des préjugés injustes peuvent perpétuer des stéréotypes préjudiciables et maintenir des inégalités qui s’infiltrent dans les décisions qui ont un impact sur des vies.
Collaborez avec des experts en IA qui peuvent vous aider à identifier les sources de biais et à développer des solutions correctives. Surveillez en permanence les systèmes d’IA pour détecter et rectifier rapidement tout biais involontaire.
7. Recherchez une analyse indépendante pour la détection des biais. Sollicitez périodiquement un avis extérieur sur les conclusions fournies par votre outil d’IA. Un point de vue externe neutre peut révéler des angles morts et des préjugés qui peuvent passer inaperçus lors des évaluations internes et mettre en lumière les domaines à améliorer.
Promouvoir l’utilisation responsable de l’IA
Grâce à ces étapes, vous pouvez faire plus que simplement superviser l’IA en toute confiance et garantir la responsabilité de son utilisation. Vous pouvez également contribuer à promouvoir le développement équitable et impartial de la technologie de l’IA dans le domaine juridique. Vos efforts contribuent à façonner l’évolution de l’IA vers un outil capable de créer des résultats équitables pour tous.
À mesure que les avocats adoptent une approche transparente et globale de la supervision de l’IA, les entreprises et la société bénéficieront d’avantages à court terme – tels qu’une efficacité et une précision améliorées – et de progrès à long terme fondés sur l’équité et la justice. Ensuite, nous demanderons à l’IA de produire la définition idéale et les bonnes pratiques pour réussir à superviser les humains et l’IA !
Selon vous, qu’est-ce qui change lorsque les avocats supervisent l’IA plutôt que les humains ?
Quelles autres mesures les avocats devraient-ils prendre pour garantir la responsabilité en matière d’utilisation de l’IA ?
Olga V. Mack est vice-présidente de LexisNexis et PDG de Parley Pro, une société de gestion de contrats de nouvelle génération qui a été pionnière en matière de technologie de négociation en ligne. Olga adhère à l’innovation juridique et a consacré sa carrière à améliorer et à façonner l’avenir du droit. Elle est convaincue que la profession juridique en ressortira encore plus forte, plus résiliente et plus inclusive qu’auparavant en adoptant la technologie. Olga est également une avocate générale primée, une professionnelle des opérations, une conseillère en démarrage, une conférencière, une professeure adjointe et une entrepreneure. Elle a fondé le mouvement Women Serve on Boards qui milite pour que les femmes participent aux conseils d’administration des sociétés Fortune 500. Elle est l’auteur de Get on Board : Gagnez votre ticket pour un siège au conseil d’administration d’une entreprise, Fundamentals of Smart Contract Security et Blockchain Value : Transforming Business Models, Society, and Communities. Elle travaille sur Visual IQ for Lawyers, son prochain livre (ABA 2023). Vous pouvez suivre Olga sur Twitter @olgavmack.