Satire Morbide

ENTSCHEIDUNG: UR_2025_16
ERFOLGREICH
PLATTFORM
TikTok
NORM
Mobbing und Belästigung
SPRACHE
Französisch 
DATUM
Oktober 2025
MAßNAHME
Konto-Sperrung


 

Décision

- Dossier ID : XXXXX -

Dans le cadre de la procédure de règlement extrajudiciaire des litiges entre


 

XXXX XXXXXXXXXX

- La partie requérante -

et

​TikTok​

- Plateforme en ligne -

au sujet de

la suspension permanente d'un compte basé sur la politique de ​TikTok​ sur le harcèlement et l’intimidation

 

l'organisme certifié de règlement extrajudiciaire des litiges User Rights conclut par l'intermédiaire de ses évaluateurs indépendants, en date du ​23.10.2025​:

User Rights conclut que la décision de suspendre définitivement le compte du la partie requérante est disproportionnée. Bien qu’une infraction à la politique de TikTok relative au harcèlement et à l’intimidation soit caractérisée s’agissant d’un contenu particulier, la suspension définitive du compte va à l’encontre des exigences minimales de respect des droits fondamentaux de l’utilisateur. La décision viole la liberté d’expression de la partie plaignante et doit dès lors être annulée.

 

I. Résumé

User Rights conclut que la suspension définitive du compte de la partie requérante par TikTok est disproportionnée et doit être annulée. Bien que le contenu partagé enfreigne les règles de la plateforme concernant le harcèlement et l'intimidation, la sanction appliquée n'est pas justifiée par rapport à la gravité de l'infraction. Une suppression du contenu, éventuellement accompagnée d'un avertissement, aurait été une réponse adéquate et proportionnée. La suspension définitive, basée sur un seul post publié dans un contexte particulier, constitue une atteinte excessive à la liberté d'expression de l'utilisateur. TikTok est donc invité à rétablir le compte de la partie requérante.

II. Faits de l'affaire

La plainte porte sur le contenu publié par la partie requérante. ​Le contenu montre une publication de “Charlie Kirk” avec la mention "Charlie Kirk has started a live video". L'image associée montre une scène avec un squelette enflammé dans un environnement de feu, s’apparentant à une image en enfer. Il y a une icône "LIVE" en rouge. 

Le XX septembre 2025​, ​TikTok​ a suspendu définitivement le compte de la partie requérante.

Le ​même jour, la partie requérante a contesté la décision de ​TikTok​ auprès de User Rights. Lors du dépôt de sa plainte auprès de User Rights, la partie requérante a été invitée à fournir les éléments contextuels pertinents. ​La partie plaignante a expliqué qu'elle contestait la suppression définitive de son compte TikTok. Elle avait récemment été sanctionnée après avoir partagé une image humoristique, mais elle a précisé que son intention n'avait jamais été d'inciter à la haine, de choquer ou de nuire à quiconque. L'image en question était une caricature satirique partagée dans un contexte humoristique, et elle n'avait pas pour but de violer les règles de la communauté. La partie plaignante a reconnu que cela avait pu être mal interprété. Elle a exprimé son profond respect pour les règles et les valeurs de TikTok et a souligné l'importance d'un environnement sûr et respectueux sur la plateforme. Elle s'est excusée sincèrement si son action avait pu être perçue comme contraire aux règles et a assuré que cela ne se reproduirait pas. Elle s'est engagée à être encore plus vigilante à l'avenir concernant les contenus qu'elle publie. 

La partie plaignante a également insisté sur le fait que son compte n'était pas seulement un espace de partage, mais aussi une partie importante de sa vie personnelle, contenant de nombreux souvenirs, des vidéos créatives, des moments précieux et des interactions avec ses amis et sa famille. Perdre ce compte signifiait perdre une partie de son histoire et de ses souvenirs accumulés au fil du temps, ce qui représentait une perte très difficile pour elle. TikTok était non seulement une plateforme d'expression, mais aussi un espace où elle avait construit des liens et partagé des instants uniques. C'est pourquoi elle a demandé avec sincérité que sa situation soit réexaminée. Elle ne cherchait pas à minimiser l'importance des règles, mais simplement à expliquer sa bonne foi et sa volonté de continuer à faire partie de la communauté TikTok de manière positive et respectueuse. Elle a remercié d'avance pour le temps consacré à sa demande et espérait vivement que la possibilité de rétablir son compte serait envisagée.​

Le XX septembre 2025​, User Rights a informé ​TikTok​ de la plainte déposée auprès de User Rights et lui a donné la possibilité de fournir une déclaration. User Rights a invité ​TikTok​ à fournir des informations supplémentaires justifiant sa décision de modération contestée.

Le XX septembre 2025, la plateforme a indiqué que les divers contenus mis en ligne par la partie requérante le XX septembre 2025 enfreignaient ses directives communautaires contre le harcèlement et l'intimidation. La décision de supprimer le contenu a été maintenue.

III. Recevabilité

La plainte est recevable.

User Rights est certifié pour résoudre les litiges entre les plateformes et les parties requérantes concernant la modération des contenus publiés sur une plateforme de médias sociaux en allemand, anglais ou français.​ TikTok​ est une plateforme de réseaux sociaux. ​TikTok​ a suspendu définitivement le compte. La suspension permanente des comptes d'utilisateurs constitue une mesure qui, conformément à l'art. 20 para. 1 c) et 21 para. 1 DSA, peut faire l'objet d'un recours auprès de l'organe de règlement extrajudiciaire des litiges User Rights.

IV. Sur le fond

User Rights juge que la décision de suspendre définitivement le compte de la partie requérante est injustifiée. Les conditions requises pour la suspension permanente d'un compte, telles que définies dans la politique de désactivation des comptes, n'ont pas été remplies. Le compte n'aurait pas dû être suspendu sur ce fondement.

1. Etendue de l’examen

Dans sa déclaration à User Rights, la plateforme a expliqué qu'elle s'appuyait sur la politique relative au harcèlement et l’intimidation​ pour modérer le contenu.

Lorsqu’elle prend une mesure de modération de contenu à l’encontre d’un utilisateur, ​TikTok​ est tenue de fournir une motivation conforme aux exigences de l’article 17 du DSA.  Cette motivation doit, entre autres informations, faire référence au motif contractuel spécifique invoqué, comme prévu par l’Art. 17 (3) e) DSA. L’objet de la réclamation est donc principalement déterminé par la règle qu’invoque la plateforme pour prendre la mesure.

Si ​TikTok​ détermine ultérieurement que la politique invoquée n'a pas été enfreinte, mais qu'une autre politique l'a été, elle doit prendre une nouvelle décision de modération du contenu, fournir à l'utilisateur un exposé des motifs de cette décision. L’utilisateur doit pouvoir exercer un nouveau recours contre cette décision,  conformément aux articles 20 ou 21 du DSA.

2. Appréciation sur le fond

User Rights fonde sa décision sur la version la plus récente des conditions générales de la plateforme.

Les directives communautaires de TikTok prévoient la possibilité de bannir un compte ou un utilisateur pour des violations répétées des règles, une seule violation grave ou encore une tentative de contourner les règles. Dans le cas présent, il semble que la partie requérante a posté environ 7 fois le même contenu. La publication en question a été supprimée autant de fois par TikTok. La violation répétée des règles de la plateforme pourrait être caractérisée par les multiples publications de l’utilisateur et ainsi justifier le bannissement d’un compte ou d’un utilisateur. 

En l'occurrence, User Rights est parvenu à la conclusion que le contenu supprimé n'est pas compatible avec les règles communautaires de TikTok relatives au harcèlement et à l’intimidation​.

Le contenu partagé par l'utilisateur viole la politique de la plateforme concernant le harcèlement et l'intimidation. La publication montre une vidéo “en direct” de Charlie Kirk avec une image d'un squelette enflammé dans un environnement de feu, ce qui pourrait être interprété comme une forme de comportement dégradant ou intimidant dirigé contre la personnalité publique de Charlie Kirk. 

La politique sur le harcèlement et l'intimidation interdit les comportements dégradants, même de faible gravité, et peut entraîner la suppression du contenu si un contexte supplémentaire est disponible, notamment si cela contribue à un préjudice grave. Bien que les figures publiques puissent faire l'objet de critiques plus sévères, le contenu doit toujours respecter les limites posées par la plateforme, qui inclut l'interdiction des menaces violentes, des discours haineux ou de l'exploitation sexuelle.

Précisément, la politique de TikTok interdit d’humilier ou de revictimiser des personnes ayant subi une tragédie, notamment en affirmant qu'elles le méritaient ou en niant leur expérience. 

Dans le cas de Charlie Kirk, son assassinat constitue de fait un événement tragique. La représentation d’un squelette en flammes dans un décor d’incendie peut être interprétée comme une humiliation posthume, suggérant que l’intéressé aurait « atterri en enfer » et y animerait un live TikTok. Même si une figure publique s’expose à davantage de critiques, elle reste bénéficiaire d’une protection : lorsqu’un contenu prend pour cible une personnalité politique violemment assassinée, il peut relever du harcèlement ou de l’attaque personnelle.

Plus précisément, la dimension attentatoire à la dignité est renforcée par le sous-entendu que le défunt est puni ou condamné, ce qui revient à ridiculiser sa mort et à banaliser la violence subie. Cette mise en scène peut être perçue comme humiliante, tournant en dérision un homicide réel. En somme, la combinaison de la moquerie explicite, de l’imagerie infernale et du contexte d’un meurtre politique récent est de nature à établir une violation de la politique de TikTok relative au harcèlement et à l’intimidation.

Par conséquent, le contenu devait être supprimé pour respecter la politique de la plateforme. Par ailleurs, les 7 publications successives par l’utilisateur pourraient également justifier la suspension définitive du compte au regard des règles de TikTok. 

3. Évaluation des Droits fondamentaux

Toutefois, la décision de ​TikTok​ de bannir le compte de l’utilisateur est en pratique incompatible avec les droits fondamentaux de la partie requérante. La mesure doit donc être annulée.

a. Application des droits fondamentaux dans le cadre du DSA

L'art. 14 (4) du DSA précise que les plateformes, lorsqu'elles appliquent des restrictions, ont l'obligation de tenir dûment compte des droits fondamentaux et des intérêts légitimes des utilisateurs et des autres parties concernées, et d'agir de manière diligente, objective et proportionnée.

L’obligation de respecter les droits fondamentaux ne découle pas du DSA lui-même, mais de la Charte des droits fondamentaux de l’Union européenne (CDFUE). Les droits fondamentaux consacrés dans la Charte ne s’appliquent pas uniquement aux litiges entre les citoyens et l’État. Ils trouvent également à s’appliquer dans des litiges purement privés, n’impliquant pas d’autorité publique (voir CJUE, arrêt du 29 janvier 2008, affaire C-275/06, Promusicae, ECLI:EU:C:2008:54). L’article 14, paragraphe 4, du DSA ne fait que préciser cette exigence dans le contexte des différends entre utilisateurs et fournisseurs de plateformes en ligne.

Dans ce cadre, User Rights procède à une mise en balance des droits fondamentaux opposés de la partie requérante et de la plateforme, afin de déterminer si la décision de la plateforme est conforme à l’article 14, paragraphe 4, du DSA.

b. Droits fondamentaux à prendre en compte

La partie requérante peut invoquer le droit fondamental à la liberté d'expression (article 11 de la Charte des droits fondamentaux de l’Union européenne – CDFUE). La publication du contenu par la partie requérante est protégée par l’article 11 CDFUE. Pour déterminer l’étendue de cette protection, il est possible de se référer à la jurisprudence de la Cour européenne des droits de l’homme (CEDH) relative à l’article 10 de la Convention européenne des droits de l’homme (CEDH), conformément à l’article 52, paragraphe 3, de la CDFUE (voir Lock, « Art. 52 GRC », in Kellerbauer et al. (dir.), The EU Treaties and the Charter of Fundamental Rights: A Commentary, 2019, nos 28 s.).

Il convient tout d’abord de démontrer que le contenu en question constitue une opinion. Cela peut inclure toute forme de communication, indépendamment du fait qu’il s’agisse de jugements de valeur ou de déclarations factuelles (CEDH NJW 1985, p. 2885). En principe, la détermination du champ de protection de la liberté d’expression n’implique pas une appréciation du contenu de l’expression. Toutefois, la CEDH a refusé toute protection sur le fondement de l’article 10 CEDH à des propos niant la Shoah, ces déclarations tombant sous le coup de la clause d’abus de droit prévue à l’article 17 CEDH (CEDH, arrêt du 23 septembre 1998 – 24662/94, § 47).

L’article 11 CDFUE protège toutes les formes et modalités d’expression. La diffusion de contenu sur une plateforme en ligne entre également dans le champ d’application de l’article 11, paragraphe 1, CDFUE. Conformément à ces critères, la publication du contenu sur la plateforme relève de la protection offerte par la liberté d’expression en vertu de l’article 11 CDFUE.

Le fournisseur de la plateforme en ligne peut, pour sa part, invoquer ses droits fondamentaux à la liberté d’entreprise (article 16 de la Charte des droits fondamentaux de l’Union européenne – CDFUE) ainsi qu’à la liberté d’expression (article 11, paragraphes 1 et 2, CDFUE).

Le droit fondamental à la liberté d’entreprise, consacré à l’article 16 de la CDFUE, comprend le droit d’exercer librement une activité économique ou commerciale (CJUE, arrêt du 14 mai 1974, Nold, C-4/73, ECLI:EU:C:1974:51, points 12 à 14). Cela inclut le droit d’exploiter une plateforme en ligne à vocation commerciale, de fixer ses propres règles internes et de modérer les contenus afin d’assurer leur respect par les utilisateurs.

La liberté d’expression peut être exercée non seulement par des personnes physiques, mais également par des personnes morales telles que les fournisseurs de plateformes en ligne (CJUE, arrêt du 22 janvier 2013, Sky Österreich GmbH c. Österreichischer Rundfunk, C-283/11, ECLI:EU:C:2013:28). Ces plateformes peuvent invoquer le droit fondamental à la liberté d’expression garanti par l’article 11, paragraphes 1 et 2, de la CDFUE, dans la mesure où elles exercent une fonction de communication. Cela vaut même lorsqu’elles se limitent à transmettre des informations ou des opinions exprimées par des tiers sans les cautionner.

La Cour européenne des droits de l’homme (CEDH) a reconnu que les fournisseurs de plateformes en ligne peuvent se prévaloir du droit à la liberté d’expression au titre de l’article 10 de la Convention européenne des droits de l’homme (CEDH), même lorsqu’ils ne cautionnent pas les contenus diffusés par les utilisateurs mais se bornent à les relayer. Elle a souligné explicitement la « valeur communicative » des plateformes (CEDH, arrêt du 23 janvier 2018, Magyar Kétfarkú Kutya Párt c. Hongrie, requête n° 201/17, § 37).

b. Exigences liées aux droits fondamentaux applicables aux décisions de modération des plateformes en ligne

De la mise en balance des droits fondamentaux respectifs de la partie requérante et de la plateforme, il découle que les mesures de modération de contenu doivent éviter toute forme d’arbitraire, être proportionnées et que les fournisseurs de plateformes en ligne sont tenus d’appliquer leurs mesures de modération de manière cohérente. Sur ces exigences, voir notamment: Wischmeyer/Meißner, Horizontalwirkung der Unionsgrundrechte – Folgen für den Digital Services Act, NJW 2023, p. 2678

(1) Caractère non arbitraire

La mesure de modération de contenu de la plateforme en ligne n’est pas arbitraire. Une mesure de modération ne saurait être qualifiée d’arbitraire si elle repose sur un motif objectif et poursuit un objectif légitime. Tel est le cas en l’espèce. La mesure vise à assurer le respect des règles de la plateforme, lesquelles ont pour but de préserver un environnement de communication attrayant et d’éviter des répercussions négatives sur les utilisateurs de la plateforme ainsi que sur les tiers.

(2) Proportionnalité

La mesure de modération du contenu enfreint les droits fondamentaux de la partie requérante en ce qu'elle est disproportionnée au regard de sa liberté d’expression.

D’abord, l’objectif légitime de protection des utilisateurs pouvait être atteint par des moyens moins intrusifs, sans recourir à la sanction la plus extrême. Le contenu litigieux viole effectivement les directives communautaires tenant au harcèlement et à l’intimidation. Tenant compte de cette violation, une suspension temporaire du compte TikTok de la partie plaignante aurait pu être envisagée. En effet, la limitation dans le temps d’une telle mesure est une sanction à la fois efficace, puisqu’elle remplit sa fonction dissuasive, et proportionnée, puisqu’elle se limite à ce qui est strictement nécessaire. 

Par ailleurs, l’exclusion définitive de TikTok se base sur un seul contenu substantiel, lequel s’inscrit dans un contexte politique et social particulier attaché à une personnalité politique. A cet égard, la liberté d’expression des individus est d’autant plus protégée lorsqu’il s’agit d’évoquer des personnalités politiques. Le présent contenu ne s’inscrit pas dans un discours de haine proprement dit puisqu’il ne vise ni un groupe protégé ni une caractéristique protégée, n’appelle pas à la violence et ne promeut pas l’exclusion. Il relève plutôt d’une satire de mauvais goût ou d’une attaque personnelle choquante. Dans ces conditions, un bannissement définitif apparaît disproportionné au regard des principes de nécessité et de proportionnalité qui guident la modération des plateformes. L’objectif de protection des droits et libertés d’autrui ne saurait légitimement justifier un bannissement définitif de la plateforme. 

Ainsi, la mesure apparaît disproportionnée au regard de l’importance de l’ingérence dans la liberté d’expression de la partie requérante.

V. Résultat

User Rights conclut que la décision de suspendre définitivement le compte est disproportionnée du point des droits fondamentaux de la partie requérante. La décision de modération prise par TikTok doit être annulée.

Note : Conformément à l’article 21, paragraphe 2, troisième phrase du DSA, les décisions des organes de règlement extrajudiciaire des litiges ne sont pas contraignantes pour les plateformes. Toutefois, dans le cadre de leur obligation de coopérer de bonne foi conformément à l’article 21, paragraphe 2, première phrase du DSA, les plateformes doivent évaluer s’il existe des raisons de ne pas mettre en œuvre la décision et doivent informer les organes de règlement extrajudiciaire des litiges  de la mise en œuvre de la décision.

 

Download
PDF