La maîtrise booléenne était autrefois la pièce maîtresse du domaine de l’écriture juridique. Alliant une pensée juridique approfondie, un sens de la façon dont les tribunaux écrivent et la capacité d’apprécier la différence entre un « /p » ou un « w/10 » opportun, ont consolidé la valeur d’un jeune avocat aux premiers jours de la recherche juridique électronique. Primitive eDiscovery a également récompensé les avocats capables de prédire les bonnes recherches pour obtenir les bons résultats, donnant ainsi naissance à toute une industrie de fournisseurs de découverte externes. Hélas, des modèles de « langage naturel » de plus en plus robustes ont égalisé les règles du jeu pour tous ceux qui rivalisaient avec ces ninjas de la recherche.
Alors que le secteur juridique entre dans l’ère de l’IA générative, l’ingénieur prompt est à nouveau ascendant. Une fois de plus, la communauté murmure à propos de la figure mythique du véritable ingénieur capable d’amadouer de grands modèles linguistiques pour produire un contenu de qualité – ou du moins ne pas obtenir de sanctions des entreprises – et réfléchit à la manière dont les facultés de droit formeront la prochaine génération à rédiger les invites qui feront le monde entier tourne.
Mais tout le monde est peut-être un peu en avance sur lui-même – et pas seulement parce que l’IA générative juridique n’est pas tout à fait prête pour les heures de grande écoute – parce que vous ne pouvez pas créer une invite sans comprendre ce que l’IA recherche.
Pendant Legalweek, j’ai eu une conversation avec Jeremy Pickens, responsable des sciences appliquées chez Redgrave Data (connu dans les parties Above the Law sous le nom d’équipe A des problèmes de données), sur la résolution du problème des jetons. Essentiellement, comment le service juridique obtient-il les résultats qu’il souhaite grâce à l’IA générative sans engloutir aucune efficacité en se ruinant sur des frais symboliques. Il a expliqué que les scientifiques évaluant des fenêtres contextuelles plus grandes ont découvert que « certains modèles de langage prêtent attention au début et à la fin de l’invite et ignorent en quelque sorte simplement le milieu, d’autres ont tendance à prêter attention au milieu de l’invite et ignorent le début ». et la fin, d’autres font attention au début et ignorent le reste, d’autres font attention à la fin et ignorent le reste.
Jusque-là, j’avais toujours considéré le problème de l’ingénierie rapide comme un réaménagement de la construction de barbares booléens qui savaient simplement comment créer la bonne entrée. Mais le booléen avait l’avantage d’être plus ou moins un langage fixe pour tous les outils. Les grands modèles de langage gardent tout cela derrière le rideau de ses interfaces en langage naturel inspirées des chatbots. En fonction de la situation précise, le modèle peut s’entraîner lui-même à réagir aux invites et à proposer des particularités auxquelles personne ne s’attendait.
C’est ce que fait l’apprentissage automatique ! Sur cette note, vous vous souvenez quand nous appelions cela l’apprentissage automatique ? Nous avons enduré un cycle exagéré de battage médiatique sur l’IA qui s’est transformé en une phase agréable et confortable d’« apprentissage automatique ». Cela a permis à tout le monde de se sentir mieux. Nous revenons maintenant à l’intelligence artificielle. Il s’avère que le parcours du secteur juridique oscillant énormément entre ces termes reflète ce qui s’est passé dans le monde informatique. Zachary Lipton a écrit il y a quelques années un article intitulé From AI to ML to AI: On Swirling Nomenclature & Slurried Thought qui examinait les dommages méthodologiques causés par le fait de jouer vite et librement avec ces termes :
Parce que la technologie elle-même est abordée de manière si superficielle, il est difficile de donner une idée du progrès technologique en décrivant les innovations techniques précises. Au lieu de cela, le moyen le plus simple d’indiquer la nouveauté dans le discours populaire est de changer le nom du domaine lui-même !
Sur quoi travaillait Google il y a 6 ans ? Big Data. Il y a quatre ans? Apprentissage automatique. Il y a deux ans? Intelligence artificielle. Dans deux ans ? Intelligence générale artificielle !
Que le progrès technologique fournisse ou non une justification intellectuellement raisonnable pour renommer un domaine de recherche, les lecteurs réagissent au changement périodique de marque. Les chercheurs, à leur tour, sont incités à commercialiser leurs travaux sous le nouveau nom afin de bénéficier de la couverture médiatique.
Quoi qu’il en soit, avec ces outils rebaptisés « AI-ML-AI » qui se nourrissent de données, la véritable action pour les scientifiques inconditionnels consiste à créer des tests pour comprendre comment les LLM réagissent aux invites. Utilise-t-il tout ce que l’utilisateur lui donne ? Est-ce qu’il fait réellement le travail que l’utilisateur attend de lui ? Qu’est-ce qu’il ignore exactement et qu’est-ce qu’il n’ignore pas ?
Ceci est assez significatif si l’on considère le cas d’utilisation populaire de la « synthèse ». Si RoboLaw a décidé de se soucier moins de la fin des 500 documents introduits dans sa gueule, cela va avoir de l’importance.
L’avocat du futur sera peut-être celui qui comprendra comment utiliser l’IA, mais la formation d’un avocat expert en IA devra peut-être attendre que les scientifiques comprennent à quoi cela ressemblerait.
Plus tôt : Un acteur primé donne le ton à la forte dose d’acteur de Legalweek en ce qui concerne la génération AI. L’industrie juridique a un long chemin à parcourir avant les matchs GPT. TalkAI ne remplacera pas tous les avocats… juste les paresseux.
Joe Patrice est rédacteur en chef chez Above the Law et co-animateur de Thinking Like A Lawyer. N’hésitez pas à envoyer par courrier électronique des conseils, des questions ou des commentaires. Suivez-le sur Twitter si vous êtes intéressé par le droit, la politique et une bonne dose d’actualité sportive universitaire. Joe est également directeur général chez RPN Executive Search.