Par Kevin P. Kalinich
Les cabinets d’avocats et les conseillers juridiques internes explorent l’adoption de l’intelligence artificielle et se forment pour fournir des conseils juridiques sur l’IA en interne et en externe. Pour mieux conseiller les décisions en matière d’IA, les avocats doivent connaître les avantages, les inconvénients et les meilleures pratiques de l’intégration de l’assurance dans la gestion des risques liés à l’IA.
Les systèmes d’IA simples sont déjà profondément intégrés dans notre société et notre économie, depuis les assistants virtuels pour les utilisateurs jusqu’à la détection anti-fraude pour les entreprises. Les progrès récents basés sur de grands modèles de langage augmentent rapidement le rythme d’intégration et la capacité d’erreurs à mesure que les nouveaux systèmes d’IA remplacent les anciens systèmes d’IA et non-IA.
Les LLM produisent fréquemment des « hallucinations », un type d’erreur qui entraîne de nouveaux périls, nécessitant une couverture d’assurance. Par exemple, les avocats de New York et du Missouri sanctionnés pour avoir utilisé de faux cas ChatGPT dans des dossiers juridiques sont des cas enracinés dans les hallucinations d’un système LLM.
Périls potentiels de l’IA
La violation du droit d’auteur, les hallucinations, la vie privée et les préjugés font l’objet de la plupart des nouvelles en matière de litiges concernant l’IA générative, qui contient la capacité de créer du matériel, tel que des images, de la musique et du texte. Cependant, certains produits d’IA en développement, tels que les robots IA, sont confrontés à des risques différents de la désinformation sur le contenu, car de telles erreurs peuvent entraîner des blessures corporelles et/ou des dommages matériels.
Comment les tribunaux étendront-ils ou limiteront-ils le droit de la responsabilité délictuelle, la jurisprudence, le droit statutaire et le droit des contrats existants en ce qui concerne l’IA ? Les principaux robots exigent que les utilisateurs s’inscrivent et acceptent des conditions d’utilisation rédigées en tenant compte des risques de litige. Initialement, les conditions de ChatGPT incluaient une disposition qui obligeait les utilisateurs à indemniser OpenAI et ses sociétés affiliées contre « toute réclamation, perte et dépense (y compris les honoraires d’avocat) découlant de » l’utilisation du service.
À l’inverse, un nombre croissant de leaders de l’IA acceptent désormais (bien que dans une mesure limitée) de dégager de toute responsabilité et d’indemniser les entreprises clientes de l’IA générative en cas de violation du droit d’auteur sur les données de formation (par exemple, OpenAI, IBM, Microsoft, Amazon, Getty Images, Shutterstock, Adobe). ).
Les lois existantes et les cadres juridiques en développement sont applicables. Les compagnies d’assurance intègrent des normes réglementaires dans la souscription, telles que la loi européenne sur l’intelligence artificielle. Envisagez une assurance pour vous aider à fournir une protection contre les pertes financières liées à certains risques liés à l’IA.
Kevin Kalinich est le fondateur du groupe Cyber Solutions d’Aon. Il dirige la pratique mondiale d’Aon pour identifier les expositions et développer des solutions d’assurance liées aux actifs incorporels.
Assurance IA
Heureusement, les avocats ont un avantage dans la mesure où bon nombre des risques liés à l’IA peuvent être résolus par une solide politique de responsabilité professionnelle des avocats. Une LPL est destinée à couvrir les réclamations pour négligence ou erreurs présumées causant une perte financière à un tiers. Cependant, la plupart des clients des avocats n’auront pas de LPL, il incombe donc aux avocats d’avoir une compréhension de base des autres assurances susceptibles de répondre aux risques d’IA avec les avantages suivants pour leurs clients.
Protège les bilans contre les pertes catastrophiques Examen indépendant de l’utilisation de l’IA par des souscripteurs tiers (et suggestions d’améliorations) Un cachet de vérification de la gestion des risques de la compagnie d’assurance, qui peut différencier les organisations pour répondre aux exigences des contrats des clients et satisfaire aux obligations réglementaires
L’applicabilité de chaque ligne d’assurance dépend de l’utilisation spécifique de l’IA, car la plupart des organisations sous-assurent les actifs incorporels par rapport aux actifs corporels.
Erreurs et omissions technologiques : si une organisation fournit des produits/services d’IA ou utilise des technologies d’IA de fournisseurs tiers dans le cadre de sa fourniture de produits/services, elle doit alors envisager une assurance erreurs et omissions, qui offre une protection contre les réclamations pour pertes financières des clients découlant d’erreurs, d’omissions ou d’actes de négligence présumés. Des avenants de couverture peuvent être nécessaires pour couvrir les risques de responsabilité des médias traditionnels, tels que la violation des droits d’auteur, des marques déposées et des marques de service, en plus des risques historiques de « préjudice publicitaire/préjudice personnel », tels que la diffamation, la calomnie, la diffamation et le plagiat. Cyber-responsabilité : si elle n’est pas déjà incluse dans l’E&O, la cyber-assurance peut couvrir les dépenses liées aux violations de données, aux incidents de piratage, aux violations de la sécurité et de la confidentialité. La couverture contre les pertes d’activité dans le cadre des polices cyber offre une protection contre les pertes financières résultant de perturbations du réseau informatique dans la chaîne d’approvisionnement (y compris les paiements de ransomware, si nécessaire). Propriété intellectuelle : alors que la responsabilité générale la plus large, les polices d’assurance médias et E&O peuvent couvrir la violation des droits d’auteur, des marques commerciales et des marques de service, la contrefaçon de brevet et le détournement de secrets commerciaux sont presque toujours exclus, à moins qu’une politique de propriété intellectuelle autonome ne soit souscrite. Responsabilité produit/générale : en ce qui concerne les réclamations relatives aux biens corporels et aux dommages corporels résultant de défauts, de dysfonctionnements ou d’erreurs dans les produits matériels d’IA (c’est-à-dire « l’Internet des objets » et la robotique), la responsabilité produit peut couvrir les frais de défense et d’indemnisation. De plus, la robotique IA et autres « appareils intelligents » peuvent nécessiter une « assurance rappel de produit » si des parties entières des systèmes IA défectueux doivent être remplacées. Responsabilité en matière de pratiques d’emploi : La responsabilité en matière de pratiques d’emploi couvre les entreprises contre les réclamations de candidats à un emploi, de travailleurs et de régulateurs selon lesquelles les droits légaux en tant qu’employés et/ou candidats de l’assuré ont été violés en ce qui concerne la discrimination causée par l’IA. Assurance contre la criminalité : offre une couverture pour faire face à la perte d’argent, de titres et d’autres actifs résultant de la malhonnêteté, du vol ou de la fraude (y compris la fraude informatique par l’IA, comme les vidéos d’ingénierie sociale deepfake qui usurpent l’identité de la direction pour ordonner un virement bancaire). Administrateurs et dirigeants : à la suite de mesures réglementaires accrues contre les employés individuels de l’entreprise, l’assurance des administrateurs et des dirigeants peut offrir une protection à l’entité et à ses dirigeants.
Combler les lacunes
Il existe des lacunes notables dans la couverture dont les avocats doivent être conscients, telles que le risque politique, le crédit commercial, les lois antitrust et les exclusions, telles que les clauses de « guerre » et les restrictions sur les « actes intentionnels ».
Manque de standardisation : La nature évolutive de l’IA complique l’établissement de polices d’assurance standardisées. Une couverture sur mesure qui s’aligne sur les cas d’utilisation et les risques spécifiques de l’IA est cruciale. Ambiguïté dans la portée de la couverture : la plupart des polices d’assurance traditionnelles ne traitent pas explicitement les risques liés à l’IA. Le conseiller juridique doit clarifier la portée de la couverture et les exclusions potentielles. Les affaires de « cyber silencieuses », dans lesquelles les polices historiques de propriété, de criminalité et de responsabilité civile générale ne « couvraient » ou n’excluaient pas positivement les cyber-risques, ont donné lieu à de nombreux litiges entre les compagnies d’assurance et les assurés. Les polices d’assurance abordent les risques liés à l’IA de trois manières. Couverture positive (une assurance spécifique à l’IA est en cours de développement) Exclusions spécifiques Le silence, qui crée une ambiguïté Nature exponentielle des risques liés à l’IA : à mesure que les capacités de l’IA se développent rapidement, de nouveaux risques peuvent apparaître. La couverture d’assurance doit être régulièrement revue et mise à jour pour tenir compte de ces risques évolutifs. Évaluation des réclamations complexes : il peut y avoir plusieurs fournisseurs d’IA, utilisateurs, vendeurs, distributeurs, clients et autres acteurs de la chaîne d’approvisionnement. Comment la responsabilité serait-elle répartie ?
Meilleures pratiques de gestion des risques liés à l’IA
Les questions suivantes ont été posées aux assurés lors des réunions des souscripteurs concernant les risques liés à l’IA.
Disposez-vous d’un cadre de gouvernance de l’IA avec une supervision du conseil d’administration et de la direction, qui comprend des cas d’utilisation spécifiques, des restrictions et des politiques d’autorisation ? Confirmez-vous si les principaux fournisseurs utilisent l’IA et, si oui, quelles garanties sont en place pour éviter les erreurs ? Avez-vous effectué des diligences précontractuelles ? En ce qui concerne les divulgations, des avis sont-ils fournis aux consommateurs sur l’utilisation de l’IA ? Comment éviter les biais involontaires lors de l’utilisation de l’IA ? Un humain doit-il vérifier l’exactitude avant que l’IA n’agisse ? Les actions de l’IA sont-elles enregistrées afin que les erreurs potentielles puissent être examinées et corrigées ? Pour la passation de contrats : qui possède et a quels droits pour utiliser les invites (entrées) et les sorties ? Les invites et les résultats sont-ils soumis à des obligations de confidentialité ? Quelle est la répartition de la responsabilité, y compris l’exonération de responsabilité et l’indemnisation ? Existe-t-il des accords de niveau de service ? Existe-t-il des accords distincts pour les plug-ins et les API ? Existe-t-il des exigences en matière de preuve d’assurance, y compris des limites et des déclarations selon lesquelles l’assurance couvre de manière adéquate les services/produits d’IA fournis ? Existe-t-il une garantie selon laquelle le fournisseur d’IA se conforme aux lois applicables ?
En conclusion
La gestion des risques prend généralement en compte la fréquence et la gravité des périls. En ce qui concerne l’IA, nous devrions ajouter la rapidité de l’évolution des profils de risque. Les avocats devraient conseiller à leurs clients de faire face à ces risques de manière proactive grâce à des polices d’assurance sur mesure adaptées à leur situation particulière.
Alors que le paysage de l’IA continue d’évoluer, un effort de collaboration entre les parties prenantes, dirigé par les conseillers juridiques et les responsables de la conformité – et mandaté par la direction – est crucial pour garantir que les dangers potentiels de l’IA sont gérés et atténués efficacement.
Kevin Kalinich est le fondateur du groupe Cyber Solutions d’Aon. Il dirige la pratique mondiale d’Aon pour identifier les expositions et développer des solutions d’assurance liées aux actifs incorporels, y compris la propriété intellectuelle, les erreurs et omissions technologiques, la responsabilité professionnelle diverses, la responsabilité des médias et la coordination de plusieurs lignes d’assurance liées aux cyber-risques et aux actifs numériques. Kalinich a obtenu un baccalauréat ès arts en économie et en mathématiques de l’Université de Yale en 1984 et un doctorat en droit de la faculté de droit de l’Université du Michigan en 1987.
Mind Your Business est une série de chroniques rédigées par des avocats, des professionnels du droit et d’autres acteurs du secteur juridique. Le but de ces chroniques est d’offrir des conseils pratiques aux avocats sur la façon de gérer leur cabinet, de fournir des informations sur les dernières tendances en matière de technologie juridique et sur la manière dont elle peut aider les avocats à travailler plus efficacement, ainsi que sur les stratégies permettant de bâtir une entreprise prospère.
Intéressé à contribuer à une chronique ? Envoyez une requête à [email protected].
Cette chronique reflète les opinions de l’auteur et pas nécessairement celles de l’ABA Journal ou de l’American Bar Association.