Par Serena Wellen | Directeur principal de la gestion des produits, LexisNexis
L’introduction d’outils d’intelligence artificielle générative (Gen AI) spécialement conçus pour la profession juridique suscite des discussions animées sur le potentiel de ces outils à transformer la façon dont le droit est pratiqué, mais on comprend peut-être moins bien comment la technologie qui rend ces outils possibles devient possible. meilleur et plus fiable.
Gen AI décrit les grands modèles linguistiques (LLM) conçus pour créer de nouveaux contenus sous forme d’images, de texte, d’audio, etc. C’est de cette catégorie d’IA dont est issu ChatGPT, le modèle lancé en novembre 2022 qui a introduit la Gen AI dans le courant culturel dominant.
Le modèle initial, GPT-2, était construit sur 1,5 milliard de paramètres d’entrée de données. Le modèle suivant, GPT-3, a été construit sur 175 milliards de paramètres et GPT-4 pourrait avoir été construit sur un nombre étonnant de 170 000 milliards de paramètres. Mais aussi stupéfiante que soit cette croissance rapide, la vérité est que les LLM ont peut-être atteint leur taille maximale. En effet, Sam Altman d’OpenAI a indiqué que « l’ère des modèles géants d’IA est déjà révolue » et que les futures versions s’amélioreront de différentes manières.
Bien entendu, les premières versions de ces LLM ont produit certains résultats qui ont étonné les professionnels du droit par leurs possibilités, et d’autres qui les ont alarmés en raison des risques. Mais au cours de l’année écoulée, de formidables innovations ont été réalisées dans la technologie LLM, qui orientent clairement la génération IA dans la bonne direction.
D’une part, l’écart entre les modèles privés (par exemple ceux d’OpenAI, Google, Anthropic, Microsoft, etc.) et les modèles open source (par exemple Llama, Falcon, Mistral, etc.) se réduit. Ceci est important car l’écosystème open source génère une énorme quantité d’innovation, alimentée par un accès plus facile aux modèles eux-mêmes, une disponibilité plus facile des ensembles de données de formation pour tous, des coûts réduits et le partage mondial de la recherche pour guider le développement ultérieur.
Deuxièmement, l’ingénierie rapide a évolué au point où elle s’apparente beaucoup plus à l’ingénierie logicielle traditionnelle. Au début de la génération AI, la science des données derrière la création des invites back-end pour guider les modèles n’était pas testée, et peu d’ingénieurs logiciels possédaient la formation ou l’expérience requise. Nous disposons désormais d’une variété d’outils, tels que LangChain et PromptFlow, qui sont très similaires à d’autres outils et modèles régulièrement utilisés en génie logiciel, permettant aux développeurs de créer plus facilement des applications Gen AI à grande échelle.
Troisièmement, la capacité des LLM à raisonner et à minimiser les « hallucinations » est devenue assez impressionnante avec les techniques appropriées. L’une de ces techniques est connue sous le nom de Retrieval Augmented Generation (RAG). Le modèle RAG est un cycle d’invite LLM qui accède à des informations externes au modèle pour améliorer sa réponse à des requêtes spécifiques, plutôt que de s’appuyer uniquement sur les données incluses dans ses données de formation. ChatGPT, par exemple, s’appuie uniquement sur ses données de formation : des informations extraites du Web ouvert (dont un nombre inconnu peut ne pas être fondé sur des faits). Les applications les plus avancées de l’approche RAG, telles que la manière dont nous utilisons RAG au sein de notre plateforme Lexis+ AI, peuvent désormais fournir des réponses précises et faisant autorité, fondées sur l’univers fermé du contenu faisant autorité – dans notre cas, la collection de jurisprudence la plus complète. , les lois et règlements du secteur juridique.
« Avec une formation sur les modèles, des sources et une intégration appropriées, RAG est sur le point d’atténuer, voire de résoudre, certains des problèmes les plus troublants de l’IA générative », a rapporté Forbes.
Une autre dimension importante de l’innovation technologique avec les LLM est que de plus en plus d’organisations déploient désormais une approche « multimodèle » pour créer leurs solutions Gen AI. Cette transition vers de gros paris sur un seul LLM permet aux développeurs de tirer parti des différents avantages de différents modèles, en créant leurs propres solutions d’une manière plus flexible qui maximise les fonctionnalités et minimise les risques.
Et un développement intéressant à surveiller au cours de l’année à venir est l’évolution potentielle des LLM avec ce qu’on appelle les Grands Modèles Agentiques (LAM). Les LAM sont des systèmes avancés capables d’effectuer des tâches et de prendre des décisions en s’interfaçant avec d’autres utilisateurs humains ou d’autres outils automatisés. Contrairement aux systèmes d’IA traditionnels qui répondent aux invites des utilisateurs, les LAM sont conçus pour comprendre leur environnement et prendre des mesures pour atteindre les objectifs qui leur sont assignés sans intervention humaine directe, selon TechTarget.
Mais l’innovation technologique la plus importante des LLM pour les professionnels du droit est peut-être que les garanties de sécurité et de confidentialité des données sont placées au premier plan avec les outils les plus récents en développement. Les services cloud sécurisés sont plus facilement disponibles, l’assainissement et l’anonymisation des données sont la norme dans les modèles de formation, le cryptage est plus fiable que jamais, les contrôles d’accès sont considérablement améliorés et il existe des protocoles de gouvernance des données solides autour de la conservation des entrées et des sorties de réponse rapides.
Chez LexisNexis, nous avons suivi un plan de développement de produits qui a délibérément adopté la technologie Gen AI afin de pouvoir capturer les avantages de ces outils développés spécifiquement pour le domaine juridique, tout en atténuant les risques potentiels associés à la première génération du Web Gen ouvert. Outils d’IA, tels que ChatGPT.
Lexis+ AI est notre plateforme révolutionnaire Gen AI qui transforme le travail juridique en fournissant une suite d’outils de recherche, de rédaction et de synthèse juridiques qui exploitent le potentiel de la technologie Gen AI. Ses réponses s’appuient sur le plus grand référentiel au monde de contenu juridique précis et exclusif de LexisNexis, avec une sécurité des données de pointe et une attention à la confidentialité. En gagnant du temps grâce aux tâches activées par Lexis+ AI, les professionnels du droit ont plus de temps pour effectuer le travail qu’eux seuls peuvent faire. En fait, nos clients ont signalé un gain de temps allant jusqu’à 11 heures par semaine grâce à Lexis+ AI.
Pour en savoir plus ou pour demander un essai gratuit de Lexis+ AI, veuillez vous rendre sur www.lexisnexis.com/ai.