Laissez de côté la Cour d’appel du cinquième circuit, il y a un nouveau concurrent en ville pour savoir qui nous donnera les avis les plus fous sur Internet. Cette semaine, un panel de la Cour d’appel du troisième circuit a statué qu’un tribunal inférieur avait eu tort de rejeter une affaire contre TikTok pour des motifs liés à l’article 230.
Mais pour ce faire, la Cour a dû rejeter intentionnellement une très longue liste de jurisprudence antérieure sur l’article 230, mal interpréter certains précédents de la Cour suprême et (trifecta !) mal interpréter l’article 230 lui-même. C’est peut-être l’un des pires avis de la Cour de circuit que j’ai lu depuis longtemps. Il figure certainement en haut de la liste.
Les conséquences de cette décision sont énormes. Nous venons de parler de certaines affaires dans la Neuvième Cour d’appel qui ont mis en évidence des lacunes gênantes et inquiétantes dans l’article 230, mais cette décision met un terme à l’article 230. Elle bouleverse en fait toute la loi.
Ce qui est en cause, ce sont les recommandations que TikTok propose sur sa « For You Page » (FYP), qui est le flux recommandé par algorithme que voit un utilisateur. Selon le plaignant, la FYP a recommandé une vidéo « Blackout Challenge » à un enfant de dix ans, qui a imité ce qui était montré et est mort. C’est bien sûr horrible. Mais à qui la faute ?
Nous disposons d’une jurisprudence sur ce genre de choses, même en dehors du contexte Internet. Dans l’affaire Winter v. GP Putnam’s Sons, il a été jugé que l’éditeur d’une encyclopédie de champignons n’était pas responsable des « amateurs de champignons qui sont tombés gravement malades après avoir cueilli et mangé des champignons après s’être fiés aux informations » contenues dans le livre. Les informations se sont révélées erronées, mais le tribunal a jugé que l’éditeur ne pouvait être tenu responsable de ces préjudices car il n’avait aucune obligation d’enquêter soigneusement sur chaque entrée.
À bien des égards, l’article 230 a été conçu pour accélérer cette analyse à l’ère d’Internet, en précisant explicitement qu’un éditeur de site Web n’est pas responsable des préjudices causés par le contenu publié par d’autres, même si l’éditeur exerce des fonctions d’édition traditionnelles. En effet, l’objectif de l’article 230 était d’encourager les plateformes à exercer des fonctions d’édition traditionnelles.
Il existe une longue liste de cas qui indiquent que l’article 230 devrait s’appliquer ici. Mais le panel du troisième circuit dit qu’il peut ignorer tous ces cas. Il y a une très longue note de bas de page (note de bas de page 13) qui s’étend littéralement sur trois pages de la décision et qui énumère tous les cas qui disent que c’est faux :
Nous reconnaissons que cette décision peut être en contradiction avec Green v. America Online (AOL), où nous avons jugé que l’article 230 immunisait un ICS de toute responsabilité pour l’échec de la plateforme à empêcher certains utilisateurs de « transmettre[ing] messages en ligne nuisibles » à d’autres utilisateurs. 318 F.3d 465, 468 (3e Cir. 2003). Nous sommes arrivés à cette conclusion au motif que l’article 230 « interdit[red] « poursuites visant à tenir un fournisseur de services responsable de… décider de publier, de retirer, de reporter ou de modifier un contenu. » Id. à 471 (citant Zeran v. Am. Online, Inc., 129 F.3d 327, 330 (4th Cir. 1997)). Green, cependant, n’impliquait pas les recommandations de contenu d’un ICS via un algorithme et était antérieur à NetChoice. De même, notre décision peut s’écarter des points de vue antérieurs à NetChoice d’autres circuits. Voir, par exemple, Dyroff v. Ultimate Software Grp., 934 F.3d 1093, 1098 (9th Cir. 2019) («[R]Les recommandations et les notifications… ne constituent pas un contenu en soi. »); Force c. Facebook, Inc., 934 F.3d 53, 70 (2e Cir. 2019) (« Le simple fait d’organiser et d’afficher le contenu d’autrui aux utilisateurs… par le biais [] les algorithmes, même si le contenu n’est pas activement recherché par ces utilisateurs, ne suffisent pas à retenir [a defendant platform] responsable en tant que développeur ou créateur de ce contenu. » (guillemets internes et citation omis)); Jane Doe No. 1 v. Backpage.com, LLC, 817 F.3d 12, 21 (1st Cir. 2016) (concluant que l’immunité du § 230 s’appliquait parce que la structure et le fonctionnement du site Web, bien qu’il ait effectivement aidé les trafiquants sexuels, reflétaient des choix éditoriaux liés aux fonctions traditionnelles d’éditeur); Jones v. Dirty World Ent. Recordings LLC, 755 F.3d 398, 407 (6th Cir. 2014) (adoptant Zeran en notant que les « fonctions éditoriales traditionnelles » sont immunisées par le § 230); Klayman v. Zuckerburg, 753 F.3d 1354, 1359 (DC Cir. 2014) (immunisant la « décision d’une plateforme d’imprimer ou de retirer un élément de contenu donné »); Johnson c. Arden, 614 F.3d 785, 791-92 (8th Cir. 2010) (adoptant Zeran) ; Doe c. MySpace, Inc., 528 F.3d 413, 420 (5th Cir. 2008) (rejetant un argument selon lequel l’immunité prévue au § 230 a été rejetée lorsque les allégations concernaient les fonctions éditoriales traditionnelles de la plateforme).
Je ne suis peut-être pas juge (ni même avocat), mais même moi je pourrais penser que si vous devez statuer sur quelque chose et que vous devez consacrer une note de bas de page qui s’étend sur trois pages à énumérer toutes les décisions qui ne sont pas d’accord avec vous, à un moment donné, vous prenez du recul et vous vous demandez :
Comme vous pouvez le constater à partir de cette horrible note de bas de page, la Cour semble penser que la décision dans l’affaire Moody c. NetChoice a fondamentalement annulé ces décisions et a ouvert la voie à une nouvelle ère. C’est… faux. Je veux dire, il n’y a pas deux façons de voir les choses. Rien dans l’affaire Moody ne dit cela. Mais le panel ici est en quelque sorte convaincu que c’est le cas ?
Le raisonnement est ici absolument stupide. Il part du principe, évidemment correct, que le Premier Amendement protège la prise de décision éditoriale et affirme que cela signifie que la prise de décision éditoriale est une « parole de première partie ». Et il rend cet argument encore plus stupide. Rappelez-vous, l’article 230 protège un service informatique interactif ou un utilisateur contre le fait d’être traité comme l’éditeur (à des fins de responsabilité) d’informations de tiers. Mais, selon cette analyse très, très, très erronée, les recommandations algorithmiques sont magiquement une « parole de première partie » parce qu’elles sont protégées par le Premier Amendement :
Anderson affirme que l’algorithme de TikTok « fusionne[es] [] vidéos tierces », ce qui donne lieu à « un produit expressif » qui « communique aux utilisateurs… que le flux de vidéos organisé les intéressera[.]” ECF No. 50 at 5. La récente discussion de la Cour suprême sur les algorithmes, bien que dans le contexte du Premier Amendement, soutient ce point de vue. Dans Moody v. NetChoice, LLC, la Cour a examiné si les lois des États qui « restreignent la capacité des plateformes de médias sociaux à contrôler si et comment les publications de tiers sont présentées à d’autres utilisateurs » vont à l’encontre du Premier Amendement. 144 S. Ct. 2383, 2393 (2024). La Cour a jugé que l’algorithme d’une plateforme qui reflète les « jugements éditoriaux » sur la « compilation du discours de tiers qu’elle souhaite de la manière qu’elle souhaite » est le « produit expressif » de la plateforme elle-même et est donc protégé par le Premier Amendement….
Compte tenu des observations de la Cour suprême selon lesquelles les plateformes s’engagent dans un discours de première partie protégé en vertu du Premier Amendement lorsqu’elles organisent des compilations de contenus d’autrui via leurs algorithmes expressifs, id. à 2409, il s’ensuit que cela équivaut également à un discours de première partie en vertu de l’article 230…
C’est tout simplement faux. Cela repose sur la croyance erronée selon laquelle tout « produit expressif » constitue un « discours de première main ». C’est faux au regard de la loi et de la jurisprudence.
C’est une déformation d’un argument déjà erroné avancé par des imbéciles de MAGA selon lequel l’article 230 entre en conflit avec l’argument de Moody. L’argument, comme l’ont suggéré les juges Thomas et Gorsuch, est que, puisque NetChoice soutient (à juste titre) que ses décisions éditoriales sont protégées par le Premier Amendement, il est en quelque sorte en conflit avec l’idée selon laquelle il n’a aucune responsabilité légale pour les propos de tiers.
Mais cela n’entre en conflit que si vous ne pouvez pas lire et/ou ne comprenez pas le Premier Amendement et l’Article 230 et leur interaction. Le Premier Amendement protège toujours toute action éditoriale entreprise par une plateforme. Tout ce que fait l’Article 230, c’est dire qu’elle ne peut être tenue responsable du discours d’un tiers, même si elle a publié ce discours. Les deux choses sont en parfaite harmonie. Sauf pour ces juges du Troisième Circuit.
La Cour suprême n’a jamais dit que les actions éditoriales se transforment en discours de première partie parce qu’elles sont protégées par le Premier Amendement, contrairement à ce qu’elle affirme ici. Cela n’a jamais été vrai, comme le montre même l’exemple de l’encyclopédie des champignons ci-dessus.
En effet, interpréter l’article 230 de cette manière revient à le vider de son contenu. Il le rend contraire à ce que la loi était censée faire. Rappelez-vous, la loi a été rédigée en réponse à la décision de Stratton Oakmont contre Prodigy, où un juge local a jugé Prodigy responsable du contenu qu’il n’avait pas modéré, car il avait modéré certains contenus. Comme l’ont reconnu les représentants Chris Cox et Ron Wyden, cela encouragerait l’absence de modération du tout, ce qui n’avait aucun sens. Ils ont donc adopté l’article 230 pour annuler cette décision et faire en sorte que les services Internet puissent se sentir libres de s’engager dans toutes sortes d’activités de publication sans être tenus responsables du contenu sous-jacent lorsque ce contenu était fourni par un tiers.
Mais ici, le troisième circuit a renversé la situation et a déclaré qu’à partir du moment où vous vous engagez dans une activité de publication protégée par le premier amendement autour d’un contenu (comme le recommander), vous perdez les protections de l’article 230 parce que le contenu devient un contenu de première partie.
C’est la même chose que la Cour a décidé dans l’affaire Stratton Oakmont, et que la loi 230 a annulée. Il est ridicule que la Cour dise que la loi 230 a en quelque sorte consacré Stratton Oakmont, et elle ne s’en rend compte que 28 ans après l’adoption de la loi.
Et pourtant, telle semble être la conclusion du panel.
Il est incroyable que le juge Paul Matey (un favori de la FedSoc nommé par Trump) ait un avis concordant/dissident selon lequel il irait encore plus loin dans la destruction de l’article 230. Il prétend à tort que l’article 230 ne s’applique qu’à l’« hébergement » de contenu, et non à sa recommandation. C’est littéralement faux. Il prétend également à tort que l’article 230 est une forme de « réglementation sur le transport public », ce qui n’est pas le cas.
Il soutient donc que la première affaire relative à l’article 230, l’importante décision Zeran de la Cour d’appel du quatrième circuit, a été mal jugée. La décision Zeran a établi que l’article 230 protégeait les services Internet de toute forme de responsabilité pour le contenu de tiers. L’arrêt Zeran a été adopté par la plupart des autres cours d’appel (comme indiqué dans la note de bas de page « tous les cas que nous allons ignorer » ci-dessus). Ainsi, dans le monde du juge Matey, il reviendrait sur l’article 230 pour ne protéger que l’hébergement de contenu et c’est tout.
Mais ce n’est pas ce que voulaient dire les auteurs de la loi (ils nous ont répété à plusieurs reprises que la décision Zeran était correcte).
Quoi qu’il en soit, chaque élément de cette décision est mauvais. Elle annule fondamentalement l’article 230 pour un grand nombre d’activités d’éditeurs. J’imagine (j’espère ?) que TikTok demandera une nouvelle audition en banc avec tous les juges du circuit et que l’ensemble du troisième circuit accepte de le faire. À tout le moins, cela donnerait l’occasion aux amici d’expliquer à quel point cette décision est totalement rétrograde et confuse.
Dans le cas contraire, vous devez penser que la Cour suprême pourrait s’en saisir, étant donné que (1) elle semble toujours avoir envie de cas directs relevant de l’article 230 et (2) cette décision indique essentiellement dans cette note de bas de page qu’elle va être en désaccord avec la plupart des autres circuits.
La décision de la Cour d’appel du troisième circuit concernant TikTok, en vertu de l’article 230, ignore délibérément le précédent et défie la logique
Autres articles de Techdirt sur le droit :
Les super bébés demandent au TTAB un jugement par défaut affirmant que DC/Marvel n’a pas répondu à l’annulation de la marque déposée « Superhero » Rand Paul a raison : censurer Internet ne protège pas les enfants Le FBI veut plus d’accès à tout, mais ne peut pas se donner la peine de protéger ce qu’il a déjà Le président de l’école jette le doyen de la bibliothèque sous un bus après l’incendie de la benne à ordures de livres LGBTQ d’un collège de Floride