Diskriminierung auf Social Media 

Diskriminierung – online oder offline – ist leider oft Teil des Alltags. Welche rechtlichen Regelungen gelten, wie diese auch auf Social Media durchgesetzt werden können und wie User Rights dabei hilft, erfahren Sie hier. 

Was ist Diskriminierung?

Von Diskriminierung spricht man, wenn einzelne Menschen oder Gruppen aufgrund bestimmter Merkmale ohne sachlichen Grund ungleich behandelt werden. Zu diesen Merkmalen zählen zum Beispiel Nationalität, Hautfarbe, Geschlecht, Glaube oder Religion, sexuelle Orientierung oder Behinderung. Diskriminierung kann in allen Lebensbereichen auftreten – auch im digitalen Raum.

Typische Formen von Diskriminierung sind (nicht abschließend):

  • Rassismus

  • Fremdenfeindlichkeit

  • Sexismus

  • Trans- und Homophobie

  • Ableismus

Häufig beruhen diskriminierende Handlungen auf Vorurteilen, Stereotypen oder pauschalisierendem Denken. Diskriminierung kann das demokratisches Zusammenleben gefährden und dazu führen, dass Menschen im Alltag benachteiligt werden – etwa bei der Wohnungs- oder Arbeitssuche. Nicht selten führt sie auch zu Konflikten sowie physischer oder psychischer Gewalt. 

Wie erleben wir Diskriminierung im Internet?

Diskriminierung im Internet ist ein gesellschaftlich und politisch brisantes Thema. Besonders auf Social Media kommt es häufig zu diskriminierenden Inhalten und Hassrede, weshalb die Regulierung von Plattformen rechtspolitisch zunehmend an Bedeutung gewinnt. Das Internet ist kein rechtsfreier Raum. Genau wie in der analogen Welt gelten auch online gesetzliche und vertragliche Regeln für das Zusammenleben. Ein besonderes Problem besteht darin, dass sich viele Nutzerinnen und Nutzer anonym im Netz bewegen können. Manche nutzen dies Anonymität aus, um sich für rechtswidriges Verhalten online der Verantwortung zu entziehen. Zwar ist die Persönlichkeit der Nutzerinnen und Nutzer, einschließlich ihrer personenbezogenen Daten, zu schützen – zugleich erschwert die Anonymität jedoch die Rechtsverfolgung von Straftaten oder anderen Rechtsverstößen. Hinzu kommt die Schnelllebigkeit des Internets, die es zusätzlich erschwert, diskriminierende oder rechtswidrige Inhalte rechtzeitig zu erkennen und zu löschen.

Was gilt bei Diskriminierung rechtlich?

In Deutschland ist Diskriminierung am Arbeitsplatz oder in anderen Alltagssituationen nach dem Allgemeinen Gleichbehandlungsgesetz (AGG) verboten. Betroffene können verlangen, dass die diskriminierende Handlung unterlassen wird. Außerdem besteht die Möglichkeit, Schadensersatz oder Entschädigung zu verlangen. Unter bestimmten Bedingungen kann Diskriminierung auch strafbar sein. Sie kann etwa den Straftatbestand der Beleidigung nach § 185 des Strafgesetzbuches (StGB) oder der Volksverhetzung nach § 130 StGB erfüllen. Darüber hinaus ist ein Verbot der Diskriminierung auch verfassungsrechtlich im deutschen Grundgesetz (GG) verankert. So heißt es in Art. 3 Abs. 3 GG: "Niemand darf wegen seines Geschlechts, seiner Abstammung, seiner Rasse, seiner Sprache, seiner Heimat und Herkunft, seines Glaubens, seiner religiösen oder politischen Anschauungen benachteiligt oder bevorzugt werden darf."

Auch Social-Media-Plattformen verbieten diskriminierende Inhalte in ihren Community-Richtlinien. Unter Begriffen wie "Hassrede" oder des "hasserfüllten Verhaltens" sind Äußerungen untersagt, die sich gegen sogenannte geschützte Merkmale richten – etwa ethnische Herkunft, nationale Zugehörigkeit, Behinderung, Religion, Geschlecht oder sexuelle Orientierung. Wenn Plattformen solche Richtlinien anwenden und Inhalte moderieren, müssen sie nach dem Digital Services Act (DSA) – einer Verordnung der Europäischen Union (EU) – außerdem die Unionsgrundrechte berücksichtigen. Diese sind in der EU-Grundrechtecharta (EU-GRCh) festgeschrieben und enthalten in Art. 21 EU-GRCh ebenfalls ein Verbot der Diskriminierung. 

 

Was tun, wenn ich von Diskriminierung auf Social Media betroffen bin?

Wie man sich als betroffene Person bei Diskriminierung verhalten sollte, hängt von der Art und Schwere des Vorfalls ab. Wenn der Verdacht besteht, dass die Diskriminierung rechtswidrig oder strafbar ist, ist es ratsam, sich neben emotionaler und psychologischer auch rechtliche Hilfe zu suchen. Gemeinsam mit einer Rechtsanwältin oder einem Rechtsanwalt kann dann besprochen werden, ob die Polizei eingeschaltet, oder ein Gerichtsverfahren angestrengt werden sollte. Wenn Sie auf Social Media  diskriminiert wurden und eine Meldung bei der Plattform nicht weiterhilft, kann es sich außerdem lohnen, sich an eine außergerichtliche Streitbeilegungsstelle wie User Rights zu wenden. 

Wie kann User Rights mir helfen?

 

Sie sind Opfer von Diskriminierung geworden oder haben eine Diskriminierung auf Social Media beobachtet und möchten sie melden...

  • Meldung an die Plattform: Die großen sozialen Netzwerke wie Facebook, Instagram oder TikTok sind seit kurzem durch den sogenannten Digital Services Act verpflichtet, Meldefunktionen für rechtswidrige Inhalte bereitzustellen. Diese sollten Sie nutzen, um die Plattformen auf den Vorfall aufmerksam zu machen. Stellt sich der streitige Inhalt als strafbar heraus, muss die Plattform dagegen vorgehen. Auch wenn der Inhalt nicht strafrechtlich relevant ist, kann er dennoch gegen die Plattform-Richtlinien verstoßen – etwa wegen eines Verstoßes gegen die Richtlinie zu Hassrede oder hasserfüllten Verhaltens. Auch einen solchen Verstoß muss die Plattform auf Ihre Meldung hin prüfen. 

  • Beweise sichern: Erstellen Sie Screenshots der Inhalte, die Sie oder eine andere Person betreffen, damit Sie diese später als Beweise verwenden können. 

  • Fall einreichen: Wenn die Plattform nicht angemessen reagiert oder ihre Entscheidung nicht zurücknimmt, können Sie den Fall bei User Rights einreichen. Wir prüfen, ob die Plattform rechtmäßig bzw. richtlinienkonform gehandelt hat. 

Die Plattform hat gegen Sie eine Maßnahme wegen angeblicher Diskriminierung ergriffen...

  • Meldung an die Plattform: Sie haben die Möglichkeit, im Rahmen eines Melde- und Abhilfeverfahrens direkt an Instagram, TikTok und Co. zu wenden und können gegen die Moderationsmaßnahme (z.B. dauerhafte Accountsperre, Löschung oder Inhaltsbeschränkung) der Plattform Widerspruch einlegen.

  • Beweise sichern: Erstellen Sie Screenshots der Inhalte, die die Plattform als Grundlage für ihre Maßnahme verwendet hat. Je mehr, desto besser! Erstellen Sie auch Screenshots von den Nachrichten, mit denen die Plattform Ihnen die Maßnahme mitgeteilt hat.

  • Fall einreichen: Wenn die Plattform nicht angemessen reagiert und ihre Entscheidung nicht rückgängig macht, können Sie den Fall bei uns einreichen. Wir prüfen, ob die Plattform rechtmäßig und richtlinienkonform gehandelt hat.