OpenAI, Inc. développe un logiciel d’intelligence artificielle impliquant de grands modèles de langage (« LLM ») connu sous le nom de ChatGPT. En 2023, plusieurs auteurs, dont la comédienne Sarah Silverman, ont intenté des recours collectifs présumés alléguant diverses allégations de violation du droit d’auteur. Le 12 février 2024, un tribunal de district du district nord de Californie a rendu son ordonnance et s’est prononcé sur les requêtes des défendeurs d’OpenAI visant à rejeter diverses réclamations dans les deux recours collectifs putatifs en cours.
Les plaignants dans les deux procès ont allégué des réclamations similaires contre les défendeurs d’OpenAI, faisant spécifiquement valoir des réclamations pour : (1) violation directe du droit d’auteur ; (2) infraction indirecte ; (3) violation de l’article 1202(b) du Digital Millennium Copyright Act (« DMCA ») ; (4) concurrence déloyale en vertu de l’article 17200 du California Business & Professions Code ; (5) négligence; et (6) l’enrichissement sans cause. Les défendeurs d’OpenAI ont demandé le rejet de toutes les causes d’action alléguées par les auteurs plaignants, à l’exception de la première cause d’action pour violation directe du droit d’auteur. (L’ordonnance de la Cour ne montre pas clairement pourquoi les défendeurs d’OpenAI n’ont pas également décidé de rejeter cette cause d’action.)
Les auteurs plaignants ont allégué qu’OpenAI avait violé leurs œuvres publiées en utilisant ces œuvres pour aider à former son LLM. Les plaignants ont allégué qu’OpenAI avait copié leurs livres publiés, qui sont protégés par la loi sur le droit d’auteur, et les avait utilisés dans un ensemble de données de formation pour son LLM. Les plaignants ont également allégué que si un utilisateur de ChatGPT lui demandait de résumer l’un de leurs livres, ChatGPT générerait généralement « des résumés précis du contenu et des thèmes du livre ».
La Cour a commencé par reconnaître les règles générales qui régissent les requêtes en rejet dans les actions intentées devant les tribunaux fédéraux. Essentiellement, pour survivre à une telle requête, un demandeur doit plaider « suffisamment de faits pour formuler une demande de réparation qui soit plausible à première vue ». Essentiellement, un plaignant doit faire valoir un « contenu factuel suffisant pour permettre au tribunal de tirer la conclusion raisonnable que le défendeur est responsable de la mauvaise conduite alléguée ».
La Cour a ensuite porté son attention sur les différentes réclamations, en commençant par la réclamation pour violation indirecte du droit d’auteur. La Cour a noté que la Loi sur le droit d’auteur « accorde au titulaire du droit d’auteur des droits exclusifs pour (1) « reproduire l’œuvre et les copies protégées par le droit d’auteur » ; (2) « préparer des œuvres dérivées ; » et (3) “distribuer au public des copies de l’œuvre protégée par le droit d’auteur”. Cependant, la Cour a noté que « le simple fait qu’une œuvre soit protégée par le droit d’auteur ne signifie pas que chaque élément de l’œuvre peut être protégé ».
Pour alléguer une réclamation valide pour violation du droit d’auteur, un plaignant doit démontrer que : (1) qu’il possède un droit d’auteur valide ; et (2) que le défendeur « a copié des aspects de son [or her] travail.” La Cour a noté que le deuxième volet de cette analyse « contient deux éléments distincts : la « copie » et l’« appropriation illégale » ». Généralement, un demandeur peut satisfaire à ces éléments en démontrant « que le défendeur a eu accès à l’œuvre du demandeur et que les deux œuvres partagent des similitudes probantes de copie, tandis que la marque d’une « appropriation illégale » est que les œuvres partagent des similitudes substantielles. Il est important de noter que la Cour a noté qu’« une allégation de contrefaçon indirecte nécessite une preuve préliminaire de contrefaçon directe ; » plus précisément, que « le défendeur a : (1) le droit et la capacité de superviser le comportement contrefait ; et (2) un intérêt financier direct dans l’activité contrefaite.
Le défendeur d’OpenAI a cherché à rejeter les allégations de contrefaçon indirecte au motif que : (1) les plaignants n’ont pas allégué qu’une contrefaçon directe avait eu lieu ; (2) qu’il n’y avait aucune allégation selon laquelle les défendeurs d’OpenAI avaient le droit et la capacité de superviser ; et (3) il n’y avait aucune allégation selon laquelle les défendeurs d’OpenAI avaient un « intérêt financier direct ».
Les auteurs plaignants ont fait valoir que « parce que les défendeurs ont directement copié les livres protégés par le droit d’auteur pour former les modèles linguistiques », ils n’avaient pas besoin de démontrer une similitude substantielle entre les œuvres, en s’appuyant sur l’affaire du neuvième circuit de 2012, Range Road Music, Inc. c. East Coast. Foods, Inc., 668 F.3d 1148. La Cour a noté que les plaignants avaient apparemment mal compris l’arrêt Range Road parce que le tribunal de cette affaire avait dispensé les plaignants de devoir démontrer « une similarité substantielle parce que la contrefaçon consistait en l’exécution publique de chansons protégées par le droit d’auteur à un bar.” En approfondissant ce raisonnement, la Cour a noté que les auteurs plaignants n’avaient « pas allégué que les résultats de ChatGPT contenaient des copies directes » de leurs livres protégés par le droit d’auteur et qu’ils devaient donc alléguer une « similitude substantielle entre les résultats ». [of ChatGPT] et les documents protégés par le droit d’auteur. Le tribunal a accueilli la requête en rejet mais a autorisé les plaignants auteurs à déposer une plainte modifiée pour tenter de satisfaire à « l’élément de similarité substantielle ».
La Cour a ensuite porté son attention sur la demande DMCA qui interdit essentiellement la suppression ou la modification intentionnelle des informations sur la gestion des droits d’auteur (« CMI »). La Cour a reconnu que pour présenter une réclamation en vertu de cette partie du DMCA, les plaignants doivent alléguer « ce qu’était le CMI supprimé ou modifié » et ils doivent « démontrer l’état mental requis, car chacune des trois formes de violations de l’article 1202(b) l’exige. « sachant ou ayant des motifs raisonnables de savoir que [intentionally removing CMI] incitera, permettra, facilitera ou dissimulera une infraction.
Les plaignants ont allégué que les défendeurs d’OpenAI avaient « à dessein » supprimé CMI de leurs livres protégés par le droit d’auteur pendant le processus de formation LLM. La Cour a noté : toutefois, qu’il n’y avait aucune allégation factuelle spécifique pour étayer cette affirmation. Au lieu de cela, les plaintes comprenaient des extraits des résultats de ChatGPT qui comprenaient « de multiples références aux noms des plaignants, suggérant qu’OpenAI n’a pas supprimé toutes les références au « nom de l’auteur ». » La Cour a poursuivi en reconnaissant que même si les plaignants pouvaient démontrer que le Les défendeurs d’OpenAI avaient sciemment supprimé CMI pendant le processus de formation, ils n’avaient pas allégué « comment l’omission de CMI dans les copies utilisées dans l’ensemble de formations donnait aux défendeurs des motifs raisonnables de savoir que la sortie de ChatGPT induirait, permettrait, faciliterait ou dissimulerait une violation. » La Cour a rejeté les arguments des auteurs plaignants selon lesquels le refus d’OpenAI d’indiquer quels livres il utilisait pour entraîner ses modèles priverait les utilisateurs de ChatGPT de savoir « si une sortie est en infraction ». La Cour a noté qu’il n’existait aucune jurisprudence pour étayer cette position et a décidé que la demande en vertu de l’article 1202(b)(1) serait rejetée avec autorisation de modification.
La Cour a ensuite examiné l’article 1202(b)(3) du DMCA qui, selon les plaignants, a été violé parce que ChatGPT a créé des résultats qui étaient des « œuvres dérivées » des livres des auteurs et a distribué ces résultats sans inclure le CMI. La Cour a commencé par noter que « bien qu’il puisse être illégal de recréer l’œuvre d’autrui (par exemple, en vertu de la loi sur le droit d’auteur), cette conduite n’implique pas nécessairement le DMCA ». La Cour a jugé significatif que les plaignants n’aient pas allégué que les défendeurs d’OpenAI avaient « distribué leurs livres ou des copies de leurs livres », mais plutôt que « le résultat des modèles de langage OpenAI est une œuvre dérivée contrefaite ». Parce qu’ils n’avaient pas allégué que ChatGPT avait reproduit leurs œuvres protégées par le droit d’auteur sans CMI, la Cour a rejeté cette partie de la réclamation DMCA mais a autorisé les plaignants à modifier pour alléguer des faits supplémentaires.
La Cour s’est ensuite penchée sur les diverses plaintes déposées en vertu du droit de l’État de Californie, telles que la concurrence déloyale et la négligence. En ce qui concerne les allégations de concurrence déloyale, la Cour a reconnu qu’« un acte ou une pratique commerciale peut violer la LUC s’il est « illégal », « déloyal » ou « frauduleux ». La Cour a rapidement rejeté le fait que les plaignants avaient allégué des réclamations sous le volet illégal ou frauduleux dans la mesure où, comme indiqué ci-dessus, les plaignants n’avaient pas allégué une conduite illégale au titre d’une violation indirecte du droit d’auteur ou d’une violation du DMCA ; et de même, il n’y avait aucune allégation dans la plainte selon laquelle les accusés d’OpenAI s’étaient livrés à une conduite frauduleuse. En ce qui concerne le volet déloyal, la Cour a noté que « un des critères permettant de déterminer une pratique “déloyale” est [whether] la gravité du préjudice causé à la victime l’emporte sur l’utilité du comportement de l’accusé. La Cour a noté que, étant donné que les plaignants avaient allégué que les défendeurs d’OpenAI utilisaient leurs œuvres protégées par le droit d’auteur pour former leur LLM à des fins commerciales, cette conduite pourrait constituer une pratique commerciale déloyale. Ainsi, la Cour a autorisé la poursuite de cette partie de la plainte pour concurrence déloyale.
En ce qui concerne l’allégation pour négligence, la Cour a estimé que les plaignants n’avaient pas allégué que les défendeurs d’OpenAI leur avaient une quelconque obligation légale en vertu du droit sur la négligence en ce qui concerne « le contrôle des informations des plaignants en leur possession ». La Cour a estimé que les plaignants n’avaient pas expliqué « comment le simple fait de posséder leurs livres crée une relation spéciale » et a distingué les cas où une action pour négligence pouvait être alléguée contre un défendeur qui était le dépositaire des informations personnelles ou confidentielles d’un plaignant. Comme pour les autres réclamations, la Cour a autorisé les demandeurs à modifier leur allégation de négligence pour alléguer des faits étayant une obligation légale.
Enfin, la Cour s’est penchée sur la demande d’enrichissement sans cause des plaignants et a également conclu que les plaignants n’avaient pas allégué « qu’OpenAI avait injustement obtenu des avantages des œuvres protégées par le droit d’auteur des plaignants par fraude, erreur, coercition ou demande ». Par conséquent, la Cour a rejeté la demande d’enrichissement sans cause, mais a de nouveau autorisé les demandeurs à la modifier.
Curieusement, la Cour a noté que les défendeurs d’OpenAI n’avaient pas soulevé la question de savoir si leurs plaintes pour pratiques commerciales déloyales, négligence et/ou enrichissement sans cause étaient préemptées par la loi sur le droit d’auteur. Ainsi, la Cour a refusé d’aborder la question de la préemption dans son ordonnance.
Les plaignants auteurs devraient déposer une plainte modifiée pour tenter de résoudre les problèmes soulevés par le tribunal en faisant droit aux requêtes initiales en rejet des défendeurs d’OpenAI. Notamment, la Cour a regroupé les deux affaires étant donné qu’elles concernent les mêmes réclamations, allégations factuelles et membres putatifs du groupe. Si une plainte modifiée est déposée, il est probable que les défendeurs d’OpenAI décideront à nouveau de rejeter les réclamations et pourraient soulever la question de la préemption quant aux réclamations en vertu du droit de l’État. Entre-temps, des poursuites similaires sont intentées contre d’autres sociétés d’IA.