Les facultés de droit doivent reconnaître et répondre à l’essor de l’IA dans le secteur juridique en intégrant une formation pertinente dans leurs programmes, affirme Megan, chercheuse et directrice adjointe du programme de Stanford en droit, science et technologie et du Stanford Center for Legal Informatics (CodeX). Principal Loi Bloomberg. L’éducation à l’IA devrait couvrir ce que l’IA peut et ne peut pas faire, ainsi que les responsabilités éthiques qui incombent aux avocats qui utilisent l’IA, écrit Ma.
Loi Bloomberg s’est également entretenu avec Matthew Butterick, avocat, typographe et programmeur informatique qui est une figure clé au centre de plusieurs poursuites en matière de propriété intellectuelle contre Copilot – un outil d’IA produit grâce à des collaborations entre des géants de l’industrie technologique comme Microsoft, OpenAI et GitHub et formé sur open source. -code source. “Ma carrière de programmeur, de designer, d’écrivain, j’avais l’impression que c’était fini si cette question de l’IA n’était pas abordée”, a déclaré Butterick.
Le Financial Times a exploré les détails de « l’intérêt économique minoritaire » de plusieurs milliards de dollars de Microsoft dans OpenAI alors que les deux sociétés font l’objet d’une surveillance réglementaire accrue au Royaume-Uni. OpenAI a conclu une série d’accords uniques avec ses bailleurs de fonds, les investisseurs recevant une part des bénéfices par l’intermédiaire d’une filiale spécifique d’IA plutôt que de détenir des capitaux propres conventionnels dans l’entreprise.
Également de l’autre côté de l’Atlantique, le plus haut tribunal britannique a déterminé que l’intelligence artificielle ne peut pas être légalement désignée comme inventeur pour garantir les droits de brevet, selon Le gardien. La décision a été prise après que le technologue américain Stephen Thaler a tenté de répertorier une IA appelée DABUS comme l’inventeur d’un récipient pour nourriture ou boisson et d’une balise lumineuse, affirmant qu’il avait droit aux droits sur les créations de l’IA.
Red Teaming, une stratégie de cybersécurité traditionnelle populaire, pourrait jouer un rôle important dans l’atténuation des risques liés à l’adoption rapide de l’IA, écrivent Adam Harrison et Nebu Varghese de FTI Consulting pour Actualités juridiques. La stratégie consiste à simuler une attaque de cybersécurité pour repérer les points faibles potentiels et affiner les protocoles de défense.
Ethan Beberness est un écrivain basé à Brooklyn qui couvre la technologie juridique, les petits cabinets d’avocats et les avocats internes d’Above the Law. Sa couverture des événements juridiques et du secteur des services juridiques a été publiée dans Law360, Bushwick Daily et ailleurs.