Elon Musk a poursuivi OpenAI, affirmant qu’il avait été trompé lorsqu’il avait investi dans les personnes derrière ChatGPT. Musk a affirmé qu’il pensait investir dans une organisation à but non lucratif et que le partenariat commercial d’OpenAI avec Microsoft – par l’intermédiaire d’une filiale à but lucratif – équivalait à un appât et un changement. À la veille d’une audience sur la requête en rejet, Musk a abandonné la poursuite.
Ce qui est probablement le mieux avant que quelqu’un doive se présenter dans une salle d’audience avec des arguments comme ceux-ci :
« Imaginez que vous fassiez un don à une organisation à but non lucratif dont la mission affirmée est de protéger la forêt amazonienne, mais que cette organisation à but non lucratif crée ensuite une société forestière amazonienne à but lucratif qui utilise les fruits des dons pour défricher la forêt tropicale. C’est l’histoire d’OpenAI, Inc. », a déclaré Musk.
Eh bien, il s’agit plutôt d’une organisation à but non lucratif qui crée une entreprise d’écotourisme à but lucratif utilisant les fruits d’une forêt tropicale protégée. Et même si un hypothétique environnementaliste pourrait encore s’y opposer, il y a loin d’un tournant vers une coupe à blanc.
Les entreprises à but lucratif d’OpenAI sont toujours contrôlées par l’entité à but non lucratif. Essentiellement, l’organisation à but non lucratif a décidé qu’une entreprise à but lucratif limitée servirait mieux la mission à but non lucratif en apportant des fonds à la mission caritative plus large.
Comme expliqué dans le blog Blue Sky de la Columbia Law School :
En bref, les objectifs caritatifs de Nonprofit-OpenAI étaient censés guider l’ensemble de l’opération. Ces objectifs, indiqués dans le certificat de constitution de Nonprofit-OpenAI au Delaware, sont de « permettre la recherche, le développement et la distribution de technologies liées à l’intelligence artificielle ». La technologie qui en résultera bénéficiera au public et la société cherchera à rendre la technologie open source accessible au public, le cas échéant.
« Le cas échéant » est ouvert à de nombreuses interprétations, mais envisage à tout le moins que, dans certains cas, OpenAI ne rendrait pas la technologie open source.
OpenAI – l’organisation à but non lucratif – a des obligations fiduciaires pour garantir que le travail à but lucratif est orienté vers la poursuite des objectifs à but non lucratif. Et si le conseil d’administration manque à ses obligations, les régulateurs peuvent intervenir. Compte tenu des événements des derniers mois – l’éviction et le retour éclair du PDG Sam Altman – ces agences devraient probablement commencer à fouiner. Mais un donateur à une entité qui déclare explicitement dans ses documents constitutifs qu’il ne rendra pas toujours ses produits open source ne présente pas le plus grand défi juridique.
Qu’est-ce que Musk pensait exactement qu’OpenAI ferait avec les outils d’IA qu’il a construits ? C’est un gars dont le principal titre de gloire est de facturer 70 000 $ pour fabriquer des voitures pour des consommateurs soucieux de l’environnement, alors épargnez le récit selon lequel « l’environnementalisme devrait être une œuvre de charité ». À un moment donné, l’organisation à but non lucratif hippie allait créer un produit avec une application métier et ensuite il était censé… quoi ? Protéger avec zèle sa propriété intellectuelle pour qu’elle ne voie jamais le jour ? Nous ne parlons pas ici du HAL 9000, c’est un redux Clippy.
Pour insister un peu plus sur l’analogie, la forêt tropicale a la valeur d’être laissée seule. Ce n’est pas le cas de l’intelligence artificielle. Quel que soit l’outil développé par OpenAI, il aurait une application. L’organisation peut contrôler ce qu’elle diffuse au public avec ses deux décrets : être « sûr et bénéfique » et essayer de fournir une technologie aux masses quand elle le peut, mais à un moment donné, elle disposerait d’une technologie qui pourrait être et est. en fait mieux utilisé par une entreprise.
Dites ce que vous voulez à propos de l’entreprise privée, mais libérer l’intelligence artificielle du domaine public n’est pas non plus nécessairement « sûr et bénéfique ».
Une fois le procès abandonné, M. « Pourquoi ne préservons-nous pas la forêt tropicale » ici peut recommencer à essayer de construire son propre fabricant d’IA rival pour concurrencer OpenAI.
C’est presque comme si l’idée selon laquelle l’IA devrait être protégée des aléas du capitalisme n’était pas du tout une véritable priorité pour lui.
Joe Patrice est rédacteur en chef chez Above the Law et co-animateur de Thinking Like A Lawyer. N’hésitez pas à envoyer par courrier électronique des conseils, des questions ou des commentaires. Suivez-le sur Twitter si vous êtes intéressé par le droit, la politique et une bonne dose d’actualité sportive universitaire. Joe est également directeur général chez RPN Executive Search.