La Cour suprême des États-Unis a été invitée à se prononcer sur la responsabilité des fournisseurs de services informatiques (tels que les médias sociaux et autres plateformes en ligne) pour les contenus publiés par leurs utilisateurs. Ce sujet, connu outre-Atlantique sous le nom de“responsabilité internet“, fait l’objet d’un débat passionné depuis des années, et l’intervention de la Cour contribue à souligner la nécessité d’une réforme organique du système juridique américain.
L’article 230 de la loi sur l’accès à l’information et la protection de la vie privée est au cœur du problème. Communications Decency Act (loi sur la décence des communications) 1996[1]qui, au cours des trois dernières décennies, a accordé une sorte d’immunité aux plateformes en ligne pour les contenus générés par les utilisateurs : si un utilisateur publie un contenu offensant, diffamatoire ou autrement illégal sur une plateforme, celle-ci ne peut être tenue pour responsable.
Malgré les attentes élevées placées dans l’arrêt rendu dans l’affaire Gonzalez c. GoogleLa Cour suprême a choisi de ne pas intervenir directement sur l’applicabilité de la règle à la dynamique complexe des algorithmes qui sélectionnent le contenu en fonction des goûts des utilisateurs. Au contraire, elle a exprimé un malaise institutionnel à l’idée d’être appelée à se prononcer sur une question qui nécessiterait finalement l’intervention du Congrès.
Toutefois, dans l’arrêt rendu en même temps dans une affaire connexe (Twitter c. Taamneh), les juges ont donné un aperçu intéressant des profils de responsabilité des plateformes pour les activités menées par les utilisateurs – bien que sous le profil juridique différent de l’aide et de la complicité au terrorisme.
Section 230 de la loi sur la décence des communications (Communications Decency Act)
Dans les années 1990, le Communication Decency Act a d’abord menacé de devenir un bâillon pour le tout jeune Internet, qui était encore largement dépourvu de toute forme de réglementation. Le législateur américain avait en effet ressenti le besoin de combler cette lacune en étendant la réglementation sur les communications “obscènes et indécentes”[2] destinées aux mineurs de moins de 18 ans et sur l’interdiction de la distribution de matériel “manifestement offensant” qui était également accessible aux mineurs de moins de 18 ans.
À l’origine, la principale préoccupation concernant le contenu disponible sur Internet était l’accès incontrôlé des mineurs à la pornographie. Au début du processus législatif, aucune attention particulière n’a été accordée aux répercussions possibles sur les opérateurs web.
Au contraire, l’origine de l’amendement qui a introduit la section 230 remonte à deux décisions rendues par des juges new-yorkais au cours de ces années.
Dans la première, Cubby, Inc. v. CompuServe (1991), il a été jugé que CompuServe ne pouvait être tenu responsable des commentaires diffamatoires postés sur l’un des forums de cette société, car elle n’avait pas contrôlé le contenu avant qu’il ne soit publié, mais l’avait simplement hébergé sur sa plate-forme.
En 1995, cependant, dans l’affaire Stratton Oakmont, Inc. c. Prodigy Services Co., la conclusion était différente : parce que Prodigy exerçait des activités de modération sur ses tableaux d’affichage en ligne et supprimait certains messages pour cause d'”offense et de mauvais goût”, il a été soutenu qu’elle pouvait être tenue responsable du contenu affiché sur sa plate-forme.
Deux représentants républicains au Congrès, Ron Wyden et Chris Cox, ont donc proposé un amendement visant à exclure la responsabilité des fournisseurs pour les contenus publiés par les utilisateurs, même si des activités de modération ont été menées sur la plateforme.
“Aucun fournisseur ou utilisateur d’un service informatique interactif ne peut être considéré comme l’éditeur ou le locuteur d’une information fournie par un autre fournisseur de contenu d’information“[3].
Selon certains auteurs américains[4], ces 26 mots ont jeté les bases du développement de la gigantesque industrie américaine du web.
En outre, la section 230 prévoit également qu‘”aucun fournisseur ou utilisateur d’un service informatique interactif ne peut être tenu pour responsable de
(A) toute mesure prise volontairement et de bonne foi pour restreindre l’accès ou la disponibilité de matériel que le fournisseur ou l’utilisateur considère comme obscène, lubrique, dégoûtant, excessivement violent, harcelant ou autrement répréhensible, si ce matériel est protégé par la Constitution ; ou
(B) toute mesure prise pour permettre aux fournisseurs de contenu d’information ou à d’autres de disposer des moyens techniques nécessaires pour restreindre l’accès au matériel décrit dans le paragraphe, ou pour mettre ces moyens à leur disposition.” [traduzione a cura dell’autore].[5]
Ainsi, les deux interprétations possibles ont été résolues en ce qui concerne l’action active ou passive des fournisseurs de services Internet vis-à-vis du contenu des utilisateurs, limitant dans chaque cas leur responsabilité.
Suite à l’approbation de la Communications Decency Act (loi sur la décence des communications)Elle a cependant été suivie de nombreuses protestations de la part d’associations de défense des droits civiques, qui ont mis en doute la constitutionnalité du reste de la législation et des interdictions qu’elle contenait, jugées contraires au premier amendement (qui protège la liberté de pensée et d’expression).
En 1997, l’affaire Reno c. Union américaine pour les libertés civiles a été portée devant la Cour suprême, qui a déclaré inconstitutionnelles les parties du texte limitant le contenu “obscène et indécent”, craignant que le matériel lié à la santé, tel que les techniques de prévention de la propagation du SIDA, ne tombe également sous le coup de la définition.
Bien que les interdictions initialement introduites par le Communications Decency Act aient disparu, la section 230 est restée en vigueur, maintenant l’immunité des fournisseurs pour tous les types de contenus publiés par leurs utilisateurs.
Cela a permis aux plateformes Internet de se développer et de prospérer plus facilement sans être étouffées par des audits de contenu coûteux et sans devoir restreindre la liberté d’expression en ligne.
Toutefois, ces dernières années, la section 230 a fait l’objet de nombreuses critiques sévères, car elle permet aux plateformes de tolérer des contenus diffamatoires, des informations erronées et des incitations à la violence. En outre, plusieurs auteurs affirment que si les plateformes garantissent le droit à la liberté d’expression, elles ne font pas assez pour retirer les contenus offensants et protéger les utilisateurs[6].
Cas précédents
Dans un passé récent, la question a donné lieu à des évaluations intéressantes de la part des juges de la Cour suprême, en particulier dans les cas suivants Force v. Facebook Inc. (2019)[7] e Malwarebytes, Inc. v. Enigma Software Group USA, LLC. (2019)[8]
La première, en particulier, concernait le cas d’un policier tué par un groupe terroriste affilié à ISIS. La mère a accusé Facebook de soutenir les terroristes, en leur permettant d’utiliser la plateforme pour diffuser leur message de propagande et organiser des attaques.
À la base de la responsabilité présumée de la plateforme se trouve surtout le fonctionnement de l’algorithme et la tendance à créer des“écho-chambres“[9], favorisant la découverte de contenus compatibles avec les idées ou les goûts des utilisateurs.
La Cour d’appel du deuxième circuit des États-Unis a ainsi jugé – pour la première fois – que l’article 230 protège également les plateformes telles que Facebook des actions civiles intentées par des victimes du terrorisme. Cependant, à la suite du recours déposé par les proches des victimes, la Cour suprême a rejeté la demande d’examen de la question[10].
Néanmoins, l’opinion dissidente du juge Katzman avait souligné que le rôle “actif” de certaines plateformes dans le choix des utilisateurs méritait d’être davantage pris en considération : “[…]Des preuves de plus en plus nombreuses suggèrent que les fournisseurs ont conçu leurs algorithmes pour orienter les utilisateurs vers des contenus et des personnes avec lesquels ils sont d’accord – et qu’ils l’ont trop bien fait, poussant les âmes sensibles de plus en plus loin sur des chemins sombres”. [traduzione a cura dell’autore]” [11].
La question de la responsabilité du fournisseur d’accès à Internet, après avoir été rejetée une nouvelle fois par la Cour dans les arrêts suivants, est donc devenue un sujet d’actualité. Malwarebytes, Inc. v. Enigma Software Group USA, LLC. (dans laquelle l’opinion dissidente du juge Thomas cite celle du juge Katzman dans l’affaire Force v. Facebook Inc.), a finalement été portée devant les tribunaux dans trois affaires différentes : Gonzalez c. Google[12], Twitter c. Taamneh[13] e Clayborn c. Twitter[14].
Gonzalez c. Google
Nohemi Gonzalez, citoyenne américaine, a été tuée lors de l’attaque terroriste du Bataclan à Paris en 2015.
Le lendemain, ISIS a revendiqué l’attentat en publiant une déclaration écrite et une vidéo sur YouTube.
Le père de Gonzalez a donc intenté une action contre Google, Twitter et Facebook, affirmant, entre autres, que Google avait aidé et encouragé le terrorisme international en permettant à ISIS d’utiliser sa plateforme, en particulier YouTube.de recruter des membres, de planifier des attaques terroristes, d’émettre des menaces terroristes, d’inspirer la peur et d’intimider les populations civiles“.[15] Il a également affirmé que l’utilisation même d’algorithmes informatiques qui suggèrent des contenus aux utilisateurs en fonction de leur historique de visionnage aidait ISIS à diffuser son message. En outre, le système de monétisation de Google sur YouTube aurait également amené l’algorithme à évaluer et à approuver le contenu d’ISIS, ce qui aurait entraîné le partage des gains avec des entités liées à l’organisation terroriste.
Dans les deux premiers cas, la demande de rejet a été acceptée. [16] La demande de rejet de Google a été acceptée, comme dans les cas précédents [17].
Twitter c. Taamneh
Le deuxième cas de la décision découle de l’attaque terroriste contre le Reina à Istanbul en 2017[18] et concerne des accusations de complicité à l’encontre de Google, Twitter et Facebook pour n’avoir pas pris de mesures significatives pour empêcher l’utilisation de leurs services à des fins terroristes. Dans cette affaire, après le rejet initial en première instance, la Cour d’appel du neuvième circuit a infirmé la décision, estimant qu’il existait un lien direct entre la diffusion du message d’ISIS par les plateformes sociales et le préjudice causé aux victimes des attentats[19].
Gonzalez c. Googlela décision
Ces affaires ont été traitées conjointement par la Cour suprême, qui a résumé son raisonnement sur la section 230 dans l’arrêt Gonzalez, tout en utilisant l’arrêt Twitter pour statuer sur la responsabilité pour complicité telle qu’elle ressort du texte de la loi antiterroriste [20].
Selon les médias américains, lors de l’audience, les juges de la Cour suprême avaient déjà exprimé leur perplexité face à l’opportunité de décider de l’avenir de l’Internet, alors que c’est le législateur qui devrait intervenir pour provoquer un tel changement : “.N’est-il pas préférable de maintenir les choses telles qu’elles sont, pour nous, et de confier au Congrès le soin de les modifier, afin qu’il puisse en étudier les implications et émettre des jugements prédictifs ?[21]
Ces dernières années, de nombreuses propositions de réforme ont été présentées, tant par des parlementaires républicains que démocrates, certaines visant à supprimer le texte, d’autres à le modifier [22].
En effet, il n’est guère surprenant que la décision des juges suprêmes ait été de ne pas se prononcer du tout sur la question de l’application de la section 230 : “[…] nous pensons qu’il suffit de reconnaître qu’une grande partie (sinon la totalité) de l’appel des plaignants semble être rejetée sur la base de notre décision dans l’affaire Twitter ou par les déterminations non contestées de la Cour du neuvième circuit en dessous”. Nous refusons donc de nous pencher sur l’application de l’article 230 à une plainte qui semble ne pouvoir faire valoir que peu de revendications, voire aucune. [traduzione a cura dell’autore]”[23]
La Cour suprême s’est donc prononcée exclusivement sur la question de l’applicabilité de la responsabilité pour aide et complicité au titre de la loi antiterroriste (en Twitter c. Taamneh), évitant ainsi d’aborder directement la question sensible qui agite les observateurs (avocats et autres) depuis des mois.
Les motivations des Twitter c. Taamneh
Plus précisément, les raisons exprimées par le juge Thomas dans l’affaire Twitter permettent de tirer deux enseignements intéressants en ce qui concerne l’évaluation de la responsabilité des fournisseurs de services Internet par rapport à la manière dont les contenus sont gérés.
Dans son raisonnement, l’arrêt traite de la pertinence de la connaissance par le prestataire de la présence de clients/utilisateurs qui utilisent le service fourni à des fins illicites (par exemple, la présence d’ISIS sur YouTube).
À cet égard, la Cour suprême s’est appuyée sur le concept de neutralité de l’action du prestataire (déjà utilisé par la Cour d’appel du 9e circuit en ce qui concerne le travail de l’algorithme)[24] et a souligné qu’une “inertie distante” ne peut se transformer en une assistance consciente et substantielle à une activité terroriste ; elle a donc estimé que l’observation selon laquelle les plateformes examinées font plus que transmettre des informations à des milliards de personnes (en analysant les préférences des utilisateurs) était insuffisante en soi.
En outre, en ce qui concerne plus particulièrement le système de monétisation de Google et de YouTube, les requérants n’ont apporté aucune preuve concrète d’une contribution substantielle apportée à ISIS ou à ses membres, que ce soit en termes de montant des sommes versées ou de nombre de comptes et de contenus approuvés par la plateforme.
Par conséquent, il ne serait pas possible d’affirmer que Google a aidé ISIS, que ce soit lors de l’attaque d’Istanbul en 2017 ou dans le cadre d’autres activités de l’organisation à caractère terroriste.
L’avenir de l’internet
La décision quasi-pilatesque de la Cour suprême est certainement soutenue par ceux qui, comme les défenseurs des droits numériques, soutiennent que la section 230 devrait continuer à faire partie du système juridique américain ; elle aurait permis une plus grande liberté d’expression en ligne, facilitant la capacité à se connecter et à communiquer d’une manière qui n’était pas possible auparavant. Elle permettrait également aux plateformes en ligne de supprimer les contenus offensants sans nécessairement censurer la liberté d’expression.[25]
Toutefois, il est difficile d’approuver l’orientation des tribunaux américains qui défendent la neutralité des plateformes en ligne, précisément à la lumière du fonctionnement connu des algorithmes d’analyse des préférences des utilisateurs.
Ces affaires ont une nouvelle fois démontré l’importance de trouver un équilibre entre la liberté d’expression et la protection des utilisateurs en ligne. Les plateformes ont le pouvoir d’atteindre des millions de personnes dans le monde entier, mais ce pouvoir s’accompagne également de la responsabilité de s’assurer que le contenu publié sur ces plateformes ne porte pas préjudice aux utilisateurs – ou du moins de prendre des mesures concrètes en ce sens.
En outre, une perception généralisée de la nécessité d’une réglementation et d’une supervision accrues des plateformes en ligne s’est fait jour. Bien que l’article 230 ait longtemps constitué une immunité fonctionnelle pour le développement de l’internet, des inquiétudes subsistent quant à la sécurité des utilisateurs et à la diffusion de contenus qui présentent des dangers à la fois en ligne et hors ligne.
Le rôle et les choix des fournisseurs deviennent de plus en plus centraux, en particulier à la lumière du fonctionnement des algorithmes sur lesquels ils s’appuient.
Par conséquent, ce qui est nécessaire – avant et bien au-delà d’une décision judiciaire – c’est une intervention réglementaire qui aborde le problème avec l’œil critique de notre décennie et qui peut répondre aux exigences (souvent) conflictuelles de la sécurité et de la liberté d’expression.
Prof. Avv. Roberto De Vita
Avv. Marco Della Bruna
Références
[1] Titre V de la loi sur les télécommunications de 1996, qui a modifié le titre 47 du code des États-Unis.[2]“Obscène et indécent“.
[3]“Aucun fournisseur ou utilisateur d’un service d’information interactif ne doit être considéré comme l’éditeur ou le porte-parole d’une information fournie par un autre fournisseur de contenu d’information.” [traduzione a cura dell’autore].[4] https://www.cornellpress.cornell.edu/book/9781501714412/the-twenty-six-words-that-created-the-internet/
[5]“Aucun fournisseur ou utilisateur d’un service informatique interactif ne peut être tenu pour responsable du fait de…”.(A) toute mesure prise volontairement et de bonne foi pour restreindre l’accès ou la disponibilité de matériel que le fournisseur ou l’utilisateur considère comme obscène, lubrique, lascif, répugnant, excessivement violent, harcelant ou autrement répréhensible, que ce matériel soit ou non protégé par la Constitution ; ou
(B) toute mesure prise pour permettre aux fournisseurs de contenu d’information ou à d’autres de disposer des moyens techniques nécessaires pour restreindre l’accès au matériel décrit au paragraphe“.
[6] https://www.eff.org/it/deeplinks/2021/04/content-moderation-losing-battle-infrastructure-companies-should-refuse-join-fight
[7] https://law.justia.com/cases/federal/appellate-courts/ca2/18-397/18-397-2019-07-31.html
[8] https://law.justia.com/cases/federal/appellate-courts/ca9/17-17351/17-17351-2019-09-12.html
[9] https://www.treccani.it/vocabolario/echo-chamber_(Néologismes)/
[10] https://www.supremecourt.gov/DocketPDF/19/19-859/127371/20200102175456524_ForcePetPDF.pdf
[11] “Des preuves de plus en plus nombreuses suggèrent que les fournisseurs ont conçu leurs algorithmes pour orienter les utilisateurs vers des contenus et des personnes avec lesquels ils étaient d’accord – et qu’ils l’ont trop bien fait, poussant les âmes sensibles toujours plus loin sur des chemins sombres.
[12] https://law.justia.com/cases/federal/appellate-courts/ca9/18-16700/18-16700-2021-06-22.html
[13] https://supreme.justia.com/cases/federal/us/598/21-1496/
[14] https://casetext.com/case/clayborn-v-twitter-inc
[15] Traduction de l’auteur.
[16] La demande du défendeur (en l’occurrence Google) de rejeter les revendications de l’initiateur.
[17] https://law.justia.com/cases/federal/appellate-courts/ca9/18-16700/18-16700-2021-06-22.html
[18]https://www.repubblica.it/esteri/2017/01/01/news/istanbul_attacco_armato_ad_un_night_club_vittime_e_feriti-155199540/
[19] La Cour du neuvième circuit a utilisé un exemple original mais efficace : “[…]Supposons qu’une personne se trouvant d’un côté d’un stade de football bondé tire avec un fusil de grande puissance sur un groupe de personnes se trouvant de l’autre côté du stade et dont l’identité n’est pas connue. La majorité des juges estimerait-elle que le coup de fusil qui atteint un spectateur non identifié de l’autre côté du stade n’a pas de lien direct avec le tireur et que le coup de feu n’a probablement pas causé le décès qui en a résulté ? [traduzione dell’autore]
Des allégations similaires sont d’ailleurs au cœur de l’affaire Clayborn v. Twitter, qui trouve son origine dans le massacre de San Bernardino en 2015, https://casetext.com/case/clayborn-v-twitter-inc
[20] Dans sa dernière version romancée en 2016, https://www.congress.gov/bill/114th-congress/senate-bill/2040/text
[21] Citation attribuée au juge Kavanaugh, https://rollcall.com/2023/02/21/supreme-court-cautious-during-arguments-on-internet-liability-law/
[22] https://slate.com/technology/2021/03/section-230-reform-legislative-tracker.html
[23] “[…] nous pensons qu’il est suffisant de reconnaître qu’une grande partie (sinon la totalité) de la plainte des plaignants semble échouer en vertu de notre décision dans l’affaire Twitter ou des décisions non contestées du neuvième circuit ci-dessous. Nous refusons donc de nous pencher sur l’application de l’article 230 à une plainte qui semble présenter peu, voire pas du tout, de demande de réparation plausible.”
[24] https://law.justia.com/cases/federal/appellate-courts/ca9/18-16700/18-16700-2021-06-22.html
[25] https://www.eff.org/it/deeplinks/2020/12/section-230-good-actually

Leave a Reply