Abstrait
Cet article explore les considérations juridiques et éthiques que les avocats doivent prendre en compte lors de la création de versions personnalisées de ChatGPT destinées au public. Il aborde les applications potentielles de ces outils, telles que l’éducation des clients sur des questions juridiques ou la fourniture de conseils préliminaires aux propriétaires. L’article décrit les principales exigences éthiques, notamment la divulgation de l’IA, la supervision, la relation avocat-client, la confidentialité et l’exercice non autorisé du droit (UPL). Il examine également les préoccupations juridiques et commerciales liées aux licences, aux supports de formation et à la responsabilité en cas de réponses inexactes. En passant en revue les directives éthiques des États et les avis d’experts, l’article propose des solutions pratiques pour garantir la conformité et protéger à la fois les utilisateurs et les praticiens du droit.
Vous souhaitez donc créer et lancer une version personnalisée de Chat GPT à partager avec les clients de votre cabinet d’avocats. Vous souhaitez peut-être créer une plateforme basée sur la vaste base de données de votre cabinet sur les cas de pension alimentaire pour enfants au Colorado afin d’informer les clients sur les facteurs que les tribunaux peuvent appliquer pour modifier un accord existant. Ou peut-être souhaitez-vous répondre aux questions des propriétaires familiaux sur l’expulsion d’un locataire qui ne veut pas payer, ou proposer une liste de contrôle des documents à rassembler pour un procès après avoir été percuté par l’arrière dans un accident de voiture.
Avec les outils personnalisés de ChatGPT, les possibilités de créer un outil pour élargir l’accès à la justice, éduquer le public ou générer des prospects sont infinies. Mais ce qui est également infini, ce sont les innombrables questions juridiques et éthiques soulevées lorsque les avocats créent des GPT personnalisés destinés au public. Voici donc une liste rapide des problèmes et des solutions si vous choisissez de créer un GPT destiné au public.
I. Exigences éthiques légales
Sources : Conseils éthiques de Californie, de Floride, du New Jersey, de NYSBA, de Caroline du Nord, de Pennsylvanie et du Kentucky.
Obligations de divulgation de l’IA : Plusieurs États exigent la divulgation de l’utilisation de l’IA aux clients, ou la clarification qu’un chatbot est une machine et non un humain. Une solution simple : utilisez les instructions GPT personnalisées pour fournir une divulgation appropriée lorsque les utilisateurs soumettent une demande. Obligation de supervision : La plupart des États exigent que les avocats supervisent et contrôlent l’utilisation de l’IA. Mais comment superviser un GPT public lorsque le cabinet parrain ne peut surveiller ni les requêtes reçues ni les réponses fournies ? Une option : tester constamment le GPT avec les requêtes anticipées des utilisateurs et itérer les révisions si nécessaire. Et comme protection supplémentaire, avertir les utilisateurs que l’exactitude des résultats du GPT n’est pas contrôlée et qu’ils ne peuvent pas s’y fier sans consulter un avocat. Ensemble, les tests continus et la divulgation du manque de surveillance devraient suffire à s’acquitter de l’obligation de supervision. Relation avocat-client et confidentialité : Comme pour tout formulaire Web interactif ou chatbot, un GPT public doit préciser qu’aucune relation avocat-client n’est formée lorsqu’une requête est soumise. Et pour garantir la préservation de la confidentialité, un GPT doit mettre en garde les utilisateurs contre la soumission d’informations personnelles détaillées. Exercice non autorisé du droit : [Sources: Joseph Avery et. al., Chat GPT Esq.: Recasting UPL in an AI Age (2024); Ed Walters, Regulating UPL in an Age of AI (2024); Thomas Spahn, Is Your AI Guilty of UPL? (2018)] Un ChatGPT personnalisé constitue-t-il une pratique non autorisée du droit ? La plupart des experts s’accordent à dire que la loi n’est pas claire, même s’il convient de noter que la plupart des statuts de la loi UPL font expressément référence aux personnes exerçant une activité juridique, et non aux machines. Cela dit, l’article d’Ed Walters suggère que les produits logiciels peuvent être protégés des violations de la loi UPL en mentionnant clairement qu’ils fournissent des informations générales, et non des conseils, et en précisant que les réponses sont générées par une machine, et non par un avocat en direct.
II. Considérations juridiques et commerciales
Licences et matériel de formation : les avocats peuvent télécharger de la jurisprudence, des lois et toutes sortes de documents de pratique pour former et affiner les GPT personnalisés. Mais il est important de revoir les termes des licences couvrant les documents tiers tels que les traités ou le contenu CLE que vous souhaitez inclure. Heureusement, peu de ressources interdisent catégoriquement leur utilisation pour la formation à l’IA… pour l’instant. En l’absence d’interdiction expresse d’utilisation à des fins de formation, les tribunaux évalueraient si le contenu produit est dérivé du matériel de formation – une question qui se retrouve actuellement devant les tribunaux. Pour une protection supplémentaire, les GPT personnalisés peuvent être invités à ne pas diffuser mot pour mot le contenu du matériel de formation. Enfin, si tout le reste échoue, gardez à l’esprit qu’Open AI a promis de défendre les clients contre les réclamations de droits d’auteur. Confidentialité des supports de formation : il va sans dire que les avocats ne doivent pas utiliser de documents clients confidentiels pour la formation. Cela dit, les avocats peuvent vouloir former les GPT personnalisés sur du contenu interne et propriétaire développé par le cabinet auquel ils ne veulent pas qu’OpenAi accède pour sa propre formation. Heureusement, Open AI propose une option de confidentialité pour protéger le contenu téléchargé à des fins de formation. Il existe également d’autres astuces techniques pour empêcher les utilisateurs de procéder à une rétro-ingénierie de votre GPT personnalisé. Responsabilité pour les réponses inexactes Récemment, Canada Air a été obligée d’honorer un tarif que son chatbot avait fourni par erreur à un client. Des cas similaires sont probables, car les consommateurs pensent en grande majorité que l’entreprise qui sponsorise le chatbot et non la technologie est responsable des erreurs. Là encore, des divulgations claires indiquant que les résultats peuvent ne pas être exacts, associées à des avertissements invitant à consulter un avocat avant d’agir, peuvent aider à éviter toute responsabilité.
Conclusion
La création d’un ChatGPT personnalisé destiné au public offre un potentiel considérable pour élargir l’accès aux informations juridiques et générer des prospects. Cependant, elle présente également un ensemble complexe de défis juridiques et éthiques. Les avocats doivent garantir une divulgation appropriée de l’IA, maintenir une surveillance pour remplir leur devoir de supervision et communiquer clairement qu’aucune relation avocat-client n’est établie via l’outil. En outre, des mesures de protection doivent être mises en œuvre pour éviter l’exercice non autorisé du droit et protéger la confidentialité. En abordant ces problèmes et en intégrant des clauses de non-responsabilité solides, les professionnels du droit peuvent exploiter de manière responsable la technologie de l’IA pour améliorer leurs services tout en atténuant les risques.
Vous souhaitez apprendre à créer un GPT personnalisé pour votre cabinet d’avocats ? Rejoignez notre liste ici pour recevoir un avis spécial et des tarifs réduits pour notre prochain cours la semaine du 22 juillet 2024.
Image IA générée par Dall-E