Il se passe tellement de choses avec l’IA en ce moment qu’il est difficile de savoir dans quelle direction se tourner. Maintenant que le conflit avec le PDG d’Open AI, Sam Altman, semble s’être calmé, quelle est la prochaine étape ? Est-ce une question que nous devrions poser à ChatGPT ? C’est ce que j’ai fait.
Voici sa réponse textuelle :
Je ne dispose pas d’informations en temps réel et ma formation ne comprend que des données jusqu’en janvier 2022. Je ne peux donc pas fournir de mises à jour sur des événements ou des développements spécifiques qui ont pu survenir après cette date. Depuis ma dernière mise à jour, je n’ai aucune information sur les événements futurs, y compris les activités ou décisions futures d’OpenAI et de son conseil d’administration.
Pour les informations les plus récentes et les plus précises, je vous recommande de consulter les articles de presse récents, les annonces officielles d’OpenAI ou leur site officiel. Gardez à l’esprit que les actions futures des organisations peuvent être influencées par divers facteurs et qu’il peut être difficile de prédire des résultats spécifiques.
Très bien, alors. Notez que ChatGPT n’inclut pour l’instant que les données jusqu’en janvier 2022. Ainsi, vous n’avez pas de chance de trouver les cas les plus récents sur votre sujet. Arrggghhhh ! Cela signifie-t-il que vous devez Shepardize ? (Je sais, un terme archaïque de dinosaure.)
C’est déjà assez dur pour l’ego d’un avocat lorsqu’il perd un procès au profit d’un autre avocat ou d’un autre cabinet d’avocats. Mais qu’en est-il lorsqu’un cabinet d’avocats perd un procès face à une entité, c’est-à-dire un cabinet d’avocats robotisé non autorisé à exercer le droit ? Aie! C’est le sort qui est arrivé à un cabinet d’avocats de l’Illinois qui a poursuivi DoNotPay en justice pour « fausse association et publicité mensongère en vertu de la loi fédérale Lanham et de la loi de l’État de l’Illinois ». Puisque même un cabinet d’avocats robotisé sait que « seul un imbécile se prend pour avocat », DoNotPay a embauché de véritables avocats. Les avocats humains de DoNotPay ont réussi à faire rejeter l’affaire.
Avez-vous déjà entendu le terme « flânerie sociale » ? Cela ne fait pas référence à la paresse sur les réseaux sociaux, mais à un autre type de paresse, la volonté de laisser l’IA faire le gros du travail, tout en se détendant. La question est de savoir si cela nous rend plus efficaces et facilite notre vie, ou si cela nous rend fainéants, et pour les avocats comme pour les autres professionnels, ce n’est pas une bonne chose.
Nous avons déjà vu des avocats sanctionnés pour s’être appuyés (à leur détriment) sur l’IA pour la rédaction de brefs textes. Et après? Lorsqu’un humain et un robot travaillent en tandem, devinez qui fait le travail ? Selon un article du Wall Street Journal :
Une étude publiée en octobre dans la revue Frontiers in Robotics and AI apporte une réponse : une personne qui travaille aux côtés d’un robot est moins susceptible de se concentrer sur les détails que lorsqu’elle travaille seule. Quiconque a travaillé en équipe sait qu’une ou deux personnes portent généralement la charge pendant que les autres restent assises et regardent ; les chercheurs appellent cela la « paresse sociale ». Il s’avère que les gens traitent les robots de la même manière.
Rappelez-vous que les règles de déontologie exigent que les avocats assument la responsabilité de toute erreur et ne rejettent pas la faute sur le personnel ? Quelle est la probabilité que les avocats commencent à blâmer les robots ? Et comment pensez-vous que les juges vont réagir ? Si c’est quelque chose comme ce cas désormais notoire où ChatGPT a créé des cas de toutes pièces, cela ne se passera pas bien. Quelle est la morale ici ? Ne comptez pas sur l’IA pour un produit de travail fini et correct. Et ça comme slogan ? “Ne comptez pas sur l’IA?” Accrocheur et ça rime.
Les barreaux des États commencent à réfléchir aux diverses ramifications de l’IA pour la pratique du droit. La Floride avertit ses avocats qu’ils doivent informer leurs clients lorsqu’ils utilisent et facturent l’IA et qu’il leur incombe d’examiner le produit du travail sur l’IA. Mais ce n’est pas tout. La confidentialité des clients est une préoccupation majeure, au même titre que la surveillance, la publicité, les frais juridiques et les coûts.
Le comité d’examen du conseil d’administration du barreau de Floride sur l’éthique professionnelle a publié pour commentaires une proposition d’avis consultatif sur toutes les manières dont l’IA affecte la pratique du droit et les obligations éthiques qui découlent de son utilisation. Ce n’est que le premier, mais certainement pas le dernier, des différents barreaux d’État qui se prononcent sur ces questions.
Et pour ne pas être en reste, la Californie a publié un rapport sur les bénéfices et les risques de l’IA générative dans le secteur public. Quelle est la différence entre l’IA vanille et l’IA générative ? Voici une explication tirée du rapport pour les dinosaures parmi nous :
GenAI s’appuie sur les progrès de l’IA conventionnelle et utilise de très grandes quantités de données pour produire un contenu écrit, audio et/ou visuel unique en réponse aux demandes de texte libre de ses utilisateurs et programmeurs. Les outils GenAI ont la capacité de produire un contenu entièrement nouveau au lieu de simplement régurgiter les données saisies. Contrairement aux systèmes d’IA conventionnels conçus pour des tâches spécifiques, les modèles GenAI sont conçus pour être flexibles et multifonctionnels. Les produits GenAI sont déjà disponibles sous forme d’applications autonomes telles que ChatGPT, Dall-E et Bard.
Consultez la liste utile de citations/références à la fin du rapport !
Enfin et surtout, le Cinquième Circuit envisage une règle qui obligerait les avocats à certifier l’utilisation de l’IA. Des sanctions au titre de la Règle 11 se cachent-elles ? Le tribunal serait le premier du pays à exiger une certification, mais je ne peux pas croire que d’autres circuits ne seront pas loin derrière. N’oubliez pas : vous signez la plaidoirie ; vous certifiez son exactitude et son authenticité. Je ne pense pas que l’on en soit arrivé à l’état « utilisez l’IA, allez en prison », mais ce n’est peut-être pas aussi exagéré qu’il y paraît, alors gardez vos cartes Monopoly « Sortez de prison gratuitement » à proximité.
Jill Switzer est membre active du Barreau de l’État de Californie depuis plus de 40 ans. Elle se souvient avoir exercé le droit à une époque plus douce et plus douce. Elle a eu une carrière juridique diversifiée, comprenant des postes de procureure adjointe, un cabinet solo et plusieurs postes de direction en interne. Elle est désormais médiatrice à plein temps, ce qui lui donne l’occasion de voir des dinosaures, des millennials et d’autres interagir – ce n’est pas toujours civil. Vous pouvez la joindre par e-mail à oldladylawyer@gmail.com.