Éd. Note: Cela fait partie d’une série détaillant l’impact de la génération AI sur la profession juridique par nos amis de Thomson Reuters. Pour en savoir plus sur la génération AI, téléchargez le rapport sur l’avenir des professionnels ici.
Le prototype ChatGPT d’OpenAI a ouvert un monde de possibilités pour l’intelligence artificielle (IA) générative, et la technologie continue de révolutionner notre façon de vivre et de travailler. Alors que son rôle dans notre vie quotidienne continue de s’étendre, de nombreux avocats et experts du secteur juridique commencent à comprendre ce que ces outils pourraient signifier pour la profession.
Dans un récent sondage d’avocats menée par l’Institut Thomson Reuters, 82 % des professionnels du droit ont déclaré croire que l’IA générative telle que ChatGPT peut être appliqué au travail juridique, avec 59 % des associés et associés gérants partageant l’IA générative devrait être appliqué au travail juridique. Malgré cette large majorité, les organisations continuent d’adopter une approche proactive et prudente. 62 % des personnes interrogées ont partagé leurs préoccupations concernant l’utilisation de ChatGPT et de l’IA générative au travail, et toutes les personnes interrogées ont indiqué qu’elles ne faisaient pas entièrement confiance aux outils d’IA générative comme ChatGPT avec les données confidentielles des clients.
L’introduction de toute nouvelle technologie s’accompagne d’hésitations compréhensibles, mais ces principales conclusions montrent une chose avec certitude : il est essentiel d’établir la confiance dans l’IA. Alors, comment les professionnels du droit peuvent-ils renforcer la confiance dans l’IA ?
La confiance dans l’IA commence par la transparence
Comme expliqué dans notre article complémentaire sur le état actuel de l’IA, la transparence en matière d’IA signifie que les parties prenantes — y compris les développeurs, les utilisateurs et les praticiens du droit — doivent avoir confiance dans la qualité des données utilisées par les modèles d’IA et dans la manière dont ils prennent des décisions. Ils doivent également être prêts à tester les résultats de l’IA par rapport à leurs propres connaissances et expertise lors des premières mises en œuvre de ces résultats.
De plus, la transparence donne l’assurance que les principes éthiques sont suivis tout au long du développement et du déploiement d’un système d’IA générative afin d’éviter les préjugés. Cela implique de confirmer que les données utilisées pour les modèles de formation sont collectées de manière responsable et sans préjudice envers des groupes ou des individus particuliers.
Travail juridique et transparence de l’IA
Le générateur de confiance le plus grand et le plus fondamental est l’exactitude. Gardez à l’esprit que les outils d’IA générative ne produisent pas toujours des résultats corrects et qu’une surveillance humaine est toujours nécessaire. Par conséquent, les avocats doivent toujours examiner toute documentation fournie par un système d’IA pour s’assurer qu’elle répond aux normes d’exactitude, d’explicabilité et de sécurité.
Utiliser l’IA générative avec les données confidentielles des clients signifie également que les entreprises doivent établir des structures de gouvernance appropriées, y compris des mesures de sécurité solides telles que :
Protocoles de cryptage et d’authentification
Des politiques solides en matière d’utilisation éthique
Audits et tests réguliers
Systèmes de filtration de contenu puissants Human in the loop (HITL) : soumettez toujours les résultats du grand modèle de langage (LLM) à un examen humain (au moins pendant la phase initiale de travail avec LLM) Connaître votre utilisateur (pour la traçabilité) Éduquer les employés sur les promesses du LLM et ses limites
Personnel approprié formé aux meilleures pratiques pour utiliser la technologie de manière sécurisée et responsable
La mise en place de ces mesures contribuera à minimiser les risques tout en maximisant les avantages potentiels de l’IA générative. Une considération à prendre en compte est d’adopter un système de « sécurité intégrée » dans lequel toute divergence ou erreur signalée par l’outil d’IA est automatiquement transmise pour examen manuel par un avocat ou un autre personnel qualifié. De cette façon, les décisions inexactes peuvent être corrigées rapidement et en toute confiance, ce qui profite à la fois aux clients et aux organisations.
Il est clair que l’IA générative est sur le point de révolutionner la manière dont le secteur juridique pratique le droit, et elle est là pour rester. Mais cette technologie émergente s’accompagne d’un besoin crucial de confiance : donner aux avocats l’assurance qu’ils sont capables de protéger les intérêts de leurs clients tout en apprenant à mieux travailler avec une solution innovante.