[ad_1]
L’utilisation de l’IA générative dans l’examen de documents soulève deux questions familières, faisant écho aux premiers débats autour de l’examen assisté par la technologie (TAR) :
Est-ce exact ? Est-ce défendable ?
TAR a obtenu son acceptation judiciaire grâce à des mesures de validation transparentes, et bon nombre de ces mêmes principes s’appliquent à l’IA générative. La précision peut être mesurée à l’aide de mesures établies :
Rappel : le pourcentage de documents pertinents correctement identifiés. Précision : le pourcentage de documents pertinents prédits par l’IA qui sont vraiment pertinents. Élusion : le pourcentage de documents pertinents incorrectement étiquetés comme non pertinents. Richesse : la part de tous les documents pertinents, qui influence la taille de l’échantillon et la marge d’erreur.
Ces mesures fournissent une base quantitative pour évaluer la fiabilité d’un modèle d’IA. Ce qui est nouveau avec l’IA générative, c’est le moment où la validation a lieu. Au lieu de valider après un examen complet, les équipes juridiques peuvent désormais tester et affiner les invites sur des ensembles de données plus petits dès le départ, en mesurant le rappel, la précision et l’évasion avant de passer à l’ensemble des documents. En validant tôt, les équipes peuvent optimiser la conception des invites, intégrer la défendabilité dans leurs processus et définir des attentes réalistes pour l’examen assisté par l’IA. Comme l’explique Ben Sexton, vice-président directeur de l’innovation et de la stratégie chez JND eDiscovery : “Être capable d’évaluer le rappel et la précision avant de s’engager dans une analyse complète est un avantage majeur. Si les résultats répondent aux attentes, nous pouvons procéder en toute confiance ; sinon, nous pouvons itérer et revalider sans retouche coûteuse.”
[ad_2]
Source link
