Neues aus der Geschäftsstelle Dritter Gleichstellungsbericht, 11.05.2022
Sehr geehrte Interessierte am Dritten Gleichstellungsbericht,
unser Mai-Newsletter ist da! Passend zum Wirbel um den Twitteraufkauf durch Elon Musk geht es dieses Mal um Soziale Medien. Dabei beleuchtet der „Einblick ins Gutachten“ vor allem, wie Geschlechterstereotype durch Soziale Medien verstärkt werden und welche Empfehlungen die Kommission entwickelt hat, um dagegen anzugehen. Prof. Dr. Hanna Kimpe erläutert in „Drei Fragen an…“ tiefergehend, welche Rolle dabei Empfehlungsalgorithmen spielen. Passende Vorschläge zum Weiterlesen, -hören, oder –anschauen gibt´s wie immer mit dazu. Diesmal finden Sie zudem einen Hinweis auf thematisch anknüpfende Forschungsprojekte.
In der Rubrik „Aktuelles“ geht es ebenfalls um Soziale Medien: Die Geschäftsstelle hat jetzt einen Mastodon-Account. Was, wie, wo und vor allem warum können Sie in der Aktuelles-Meldung nachlesen. Die Rubrik thematisiert zudem die Verständigung von Mitgliedstaaten und Europaparlament zum Digital Services Act.
Abschließend gibt es wie immer Hinweise auf vergangene und Ankündigungen zukünftiger Veranstaltungen, die spannend für Sie sein könnten.
Wir wünschen eine erkenntnisreiche Lektüre!
Inhalt dieser Ausgabe
Aktuelles: Einigung über Digital Services Act (DSA) | Geschäftsstelle jetzt auf Mastodon vertreten
Einblick in das Gutachten: Geschlechterstereotype und Soziale Medien | Drei Fragen an Prof. Dr. Hanna Klimpe| Tipps zum Thema (Lesen, Sehen, Hören, Forschung)
Eindrücke aus der Arbeit der Geschäftsstelle und der Kommission: Vergangene und kommende Veranstaltungen
Aktuelles
Einigung über Digital Services Act
Ende April haben sich die Mitgliedsstaaten und das Europaparlament über das Gesetz für Digitale Dienste (Digital Services Act) geeinigt. Der Ende 2020 vorgelegte Entwurf für ein Gesetz über digitale Dienste zielt auf die Regulierung von Online-Plattformen. Das Gesetz ergänzt bzw. aktualisiert die alte E-Commerce-Richtlinie. Es sieht insbesondere einheitliche Haftungs‑ und Sicherheitsvorschriften für digitale Plattformen vor. Dazu gehören auch Verfahren zur Meldung und Entfernung illegaler Inhalte, die in Deutschland bislang im Netzwerkdurchsetzungsgesetz geregelt sind. Die Ziele des Digital Services Act entsprechen Empfehlungen des Dritten Gleichstellungsberichts, wonach Plattformbetreibende u.a. bei digitaler Gewalt stärker in die Pflicht zu nehmen sind. Ein Überblick über die Inhalte und Bedeutung des DSA finden Sie z.B. im Artikel “What does the DSA say?” (25.04.2022) von Daphne Keller oder in einem ausführlichen Twitter-Thread von MEP Alexandra Geese (Bündnis 90/Die Grünen).
Mehr Informationen zu weiteren Datenregulierungsvorhaben der EU finden Sie auf unserer Homepage.
Geschäftsstelle tootet jetzt auf Mastodon
Der angestrebte Kauf von Twitter durch Elon Musk hat Wellen geschlagen. Viele sind verunsichert, wie es bei einem Kauf auf der Plattform weitergehen würde – insbesondere in Bezug auf demokratische Grundrechte, Datenschutz und Schutz vor Hassrede; Themen, die auch vor dem Kauf schon aktuell waren. Im Gutachten zum Dritten Gleichstellungsbericht wurden die Mechanismen, die z.B. in Form der algorithmischen Sortierung von Tweets oder dem Schalten von stereotypisierter Werbung auch Sexismus perpetuieren, ausführlich problematisiert. Wir möchten daher auf eine alternative Plattform aufmerksam machen: Mastodon. Der Nachrichtendienst ist in seinen Funktionen Twitter sehr ähnlich, basiert jedoch auf Open Source Software, verzichtet auf algorithmische Steuerung der Anzeigehäufigkeit und Reihenfolge der Toots (Equivalent zu Tweets auf Mastodon), ist dezentral angelegt und moderiert. Natürlich sind auch dort Problematiken wie Hassrede nicht automatisch ausgehebelt. Anders als bei den meisten kommerziellen Unternehmen besteht bei Mastodon jedoch auf vielen Instanzen zumindest der Anspruch, Diskriminierung durch die Moderation der Nachrichten zu minimieren und ggf. entsprechende Kommentare und Accounts zu löschen (siehe z.B. die Server-Regeln der Instanz „Mastodon social“, auf der unser Account angesiedelt ist). Ausführlichere Informationen zum Hintergrund und zur Einrichtung eines Mastodon-Profils gibt es z.B. im Artikel „Ausgezwitschert: Mastodon als zentrale Alternative zu Twitter“ und „Mastodon – das bessere Twitter?“ von Andreas Izchak Rehberg (2022) bei heise online und mobilsicher oder im Überblick „Fediverse – so geht gutes Social Media“ von Leena Simon (2021) auf dem Digitalcourage-Blog.
Unter dem Namen @gleichgerecht@mstdn.social finden Sie unseren Account bei Mastodon Social. Wir freuen uns über alle, die uns dort folgen möchten und kommende Interaktionen im Fediverse.
Einblick ins Gutachten
Geschlechterstereotype und Soziale Medien
Drei Fragen an Prof. Dr. Hanna Klimpe

Prof. Dr. Hanna Klimpe
Prof. Dr. Hanna Klimpe ist Professorin für Social Media an der Hochschule für Angewandte Wissenschaften Hamburg (HAW Hamburg).
Soziale Medien könnten die Vielfalt der Geschlechter widerspiegeln. Stattdessen transportieren sie größtenteils traditionelle Bilder von Männern und Frauen. Wie kommt es dazu?
Auch „klassische“ Massenmedien wie Fernsehen oder Zeitschriften transportieren eher stereotype Geschlechterbilder. Insofern ist es einerseits erwartbar, dass soziale Medien die traditionellen Bilder, von denen unsere gesamte Gesellschaft geprägt ist, ebenfalls widerspiegeln. Natürlich haben User*innen in sozialen Medien prinzipiell die Möglichkeit, sich individuell und komplex zu inszenieren. Eine der großen Hoffnungen von Internettheoretiker*innen wie Donna Haraway und Sherry Turkle Mitte/Ende der 1990er Jahre war, dass Menschen sich im virtuellen Raum frei von der Objektifizierung ihrer Körper inszenieren können. Im Gegenteil zeigen Studien, dass User*innen auf Selfies stärkere Stereotype reproduzieren, als sie z.B. in Werbekampagnen gezeigt werden. Dieser Druck nach Stereotypisierung trifft übrigens Männer ebenso wie Frauen, z.B. darin, den Körperidealen von Fitnessinfluencer*innen zu entsprechen.
Warum werden also in sozialen Medien traditionelle Geschlechterbilder reproduziert, obwohl jede*r im Prinzip frei ist, sich im digitalen Raum selbst zu entwerfen? Soziale Medien funktionieren über das Bedürfnis nach Anerkennung und Sichtbarkeit. Insbesondere für junge Menschen sind soziale Medien ein zentraler Ort für den Austausch mit ihren Peer Groups. Erstrebt wird positive Resonanz in Form von möglichst vielen Likes, Shares und positiven Kommentaren. Orientierung bieten Fotos und Videos von erfolgreichen User*innen, z.B. Influencer*innen, die ebenso wie in „traditioneller“ Werbung mit stereotypen Geschlechterbildern erfolgreich sind. Verknüpft mit dem Bedürfnis nach Anerkennung ist die Sorge vor Sanktionierung durch negative Reaktionen bis hin zu Cybermobbing und Hate Speech – wovon Frauen ebenso wie andere vulnerable Gruppen wie migrantisch gelesene oder behinderte Menschen überproportional betroffen sind. Diese Dynamik aus Bestätigungsbedürfnis und Angst vor Ablehnung wird durch die Funktionsweise der Algorithmen, die die erfolgreichen, auf stereotypen Darstellungen basierenden Geschlechterbilder bevorzugt empfehlen, exponentiell potenziert. Soziale Medien neigen daher dazu, bestehende Stereotype zu verschärfen.
Gleichzeitig haben sich auf sozialen Medien zahlreiche Communities gebildet, die selbstbewusst Geschlechtervielfalt darstellen. Die LGBTQIA+-Community z.B. hat für sich beansprucht, auf TikTok einen eigenen Raum geschaffen zu haben, das sogenannte „Alt-TikTok“ (Alternative TikTok). Dabei muss hinzugefügt werden, dass TikTok laut Recherchen der Tagesschau auch in Deutschland Wortfilter benutzt, um Begriffe aus der LGBTQIA+-Community wie „schwul“, „queer“, „LGBTQ“ oder „homosexuell“ zu unterdrücken. Diese Räume werden bislang zu wenig untersucht, weil sie weitestgehend Nischenphänomene bilden. Dabei wäre dies ein wichtiger Schritt, um mehr Geschlechtervielfalt auf sozialen Medien zu schaffen.
Besonders bildbasierte Plattformen wie Instagram (re-)produzieren mit ihren Empfehlungsalgorithmen geschlechtlich normierte Körperbilder. Wie funktionieren diese Algorithmen?
Die Algorithmen richten sich zunächst natürlich nach der Strukturierung der Plattformen aus: Eine Plattform wie Instagram ist grundsätzlich auf normschöne, gefilterte Bilder ausgerichtet, TikTok auf Körperinszenierungen durch Tanz und Gesang, die aber durchaus Handlungsspielraum zulassen.
Empfehlungen erfolgen einmal über beliebte Hashtags: Je häufiger ein Hashtag verwendet wird, desto wahrscheinlicher ist es, dass ein Foto oder Video mit diesem Hashtag im Empfehlungsfeed angezeigt wird. Dabei sind Hashtags durchaus manipulationsanfällig: So ist es z.B. in der politischen Kommunikation auf Social Media eine beliebte Strategie, Hashtags zu „kapern“, z.B. homophobe Hashtagkampagnen mit Videos von koreanischer Popmusik zu posten, so dass unter diesem Hashtag mehr Popvideos als homophobe Inhalte zu sehen sind. In der entgegengesetzten Richtung funktioniert diese Methode aber natürlich auch.
Zweitens funktionieren Empfehlungsalgorithmen durch KI-basierte Analyse von (Bewegt-)bildern, indem beliebte Körperbilder, Posen, Bewegungen etc. identifiziert und bevorzugt angezeigt werden. Dies führt natürlich dazu, dass stereotype Bilder verstärkt sichtbar gemacht und entsprechend wieder reproduziert werden. Auch hier gibt es Versuche von User*innen, dies zu unterwandern: So ist z.B. 2018 die damals 17-jährige Amerikanerin Feroza Aziz damit bekannt geworden, den Algorithmus von TikTok, der chinakritische Inhalte zensiert hat, zu überlisten, indem sie ein vermeintlich harmloses Schminktutorial produziert hat, in dem sie aber über die Unterdrückung der Uiguren gesprochen hat. Bevor der Algorithmus das Video als inhaltlich kritisch identifiziert und gelöscht hatte, war Aziz längst viral gegangen.
Grundlegend problematisch an Empfehlungsalgorithmen ist die mangelnde Geschlechterdiversität unter Programmier*innen. Algorithmen werden hauptsächlich von Männern programmiert: Der berühmte „Like“-Button auf Facebook wurde ursprünglich von Mark Zuckerberg implementiert, um die Attraktivität seiner Kommilitoninnen zu bewerten. Für geschlechterdiversere Empfehlungsalgorithmen braucht man vor allem auch mehr Frauen* mit Genderkompetenz als Programmiererinnen.
Die Sachverständigenkommission für den Dritten Gleichstellungsbericht empfiehlt u.a. Empfehlungsalgorithmen Sozialer Medien weniger geschlechterverzerrend und diskriminierend zu gestalten. Was sind dafür aus Ihrer Sicht die wichtigsten Stellschrauben?
Eine wichtige Stellschraube, insbesondere bei jugendlichen User*innen, wäre eine automatisierte und sorgsame Beobachtung der sogenannten Challenges, die Jugendliche oft zu extremem Verhalten animieren. Challenges sind z.B. bei anorektischen Jugendlichen sehr beliebt. Hier müssten Algorithmen diese rechtzeitig identifizieren und die Plattformen eingreifen.
Das soll aber nur ein Beispiel dafür sein, dass Plattformen stärker in die Pflicht genommen werden müssen. Eine solche Kontrolle darf nicht den Unternehmen überlassen werden: Die Ethikforscherinnen Timnit Gebru und Margaret Mitchell wurden beide bei Google gekündigt, nachdem sie sexistische und diskriminierende Dynamiken in den Google-Algorithmen kritisiert hatten. Die Meta-Whistleblowerin Frances Haugen hat dabei letztes Jahr im US-Kongress detailliert Auskunft darüber gegeben, dass die Unternehmen durchaus in der Lage wären, neutrale oder diverse Inhalte auszuspielen, aber radikale Inhalte bevorzugen, weil diese eine hohe Reichweite erzeugen. Hier müssen für die Unternehmen verpflichtende juristische Grundlagen geschaffen werden.
Tipps zum Thema (Lesen, Sehen, Hören, Forschung)
Lesen:
- Jessica Orlowicz zeigt in „Empowerment: Wo virtueller Feminismus seine Grenzen hat“ (2021), wie Feministinnen versuchen, sich im Netz zu behaupten und welchen Einfluss Algorithmen und Hassrede in Sozialen Medien auf die Möglichkeiten von Empowerment haben. Interviewt wird unter anderem Dr. Hanna Klimpe.
- Einen besonders kritischen Blick auf die Kultur der Selbstinszenierung von Influencer*innen und Feminismus, wie er teilweise im Netz gelebt wird, wirft Astrid Exner in ihrem Artikel „Authentische Werbeflächen“ im österreichischen Magazin An.schläge.
- Einen kurzen Blick auf die andere Seite der Medaille – TikTok als Möglichkeit für queere Jugendliche, sich auszuleben und Communities zu finden – wirft die Kolumnistin Kuku Schrapnell in „Queere Leute auf Tiktok: Checkt sie aus!“ (2020) in der A&K.
- Auch im Neunten Familienbericht der Bundesregierung (2021) werden Soziale Medien thematisiert. In Kapitel 5.6 (S.201ff.) geht es unter anderem darum, wie Eltern ihre Kinder bei der Nutzung Sozialer Medien begleiten können, damit sie lernen, konsumierte Inhalte und die eigene Darstellung zu reflektieren und mit Risiken wie z.B. Digitaler Gewalt oder der Vermittlung stereotyper Geschlechterbilder vertraut sind.
Sehen:
- In einem investigativ-journalistischen Experiment haben sich Svea Eckert, Sulaiman Tadmory und Lena Kampf mit Mechanismen auf Instagram befasst, die Essstörungen befeuern. Der darauf basierende Multimedia-Beitrag kann auf der tagesschau-Seite gelesen, angeschaut und angehört werden. Ergänzend dazu wird in der Puls-Reportage „Aufgedeckt: So gefährlich ist der Algorithmus von TikTok“ gezeigt, wie der TikTok Algorithmus Inhalte wie Depression, Selbstverletzung und Suizid puscht.
- Die MaLisaStiftung erarbeitete eine der bisher umfassendsten Studien zu weiblicher Selbstinszenierung in Sozialen Medien, die auch in das Gutachten zum Dritten Gleichstellungsbericht eingeflossen ist. Auf der Homepage der Stiftung erklären die Forscherinnen Prof. Dr. Claudia Wegener, Prof. Dr. Elizabeth Prommer und Dr. Maya Götz in kurzen Videointerviews ihre Ergebnisse.
- Im ZDF Magazin Royal vom 8. April befasste sich Jan Böhmermann mit Sozialen Medien. Thematisiert wurden u.a. sexistische und rassistische Instagram-Filter, Schönheitsideale und deren Auswirkungen auf junge Menschen, insbesondere junge Frauen.
Hören:
- In gleich vier Folgen in der Zeit vom 11.01.2022 bis zum 01.02.2022 beschäftigte sich auch der She Likes Tech-Podcast mit der sogenannten „Magersucht-Community“ auf Instagram und den problematischen Dynamiken auf der Plattform.
Forschung:
- Im Rahmen der EU-Programms „Rights, Equality and Citizenship Programme 2014-2020“ führt L&R Sozialforschung in Kooperation mit dem Institut für Höhere Studien, der Bewusst anders beraten (BAB)-Unternehmensberatung sowie dem Netzwerk Österreichischer Frauen- und Mädchenberatungsstellen das Projekt „DigiTyps – Entstereotypisierung von Berufsbildern und Ausbildungskonzepten im digitalen Wandel“ durch.
Eindrücke aus der Arbeit der Geschäftsstelle und der Kommission
Ausgewählte vergangene und kommende Veranstaltungen
Die Sachverständigen und die Geschäftsstelle stellen die Inhalte des Gutachtens bei verschiedensten Konferenzen, Tagungen und Sitzungen vor.
Auf unserer Homepage finden sie einen Überblick über die vergangenen und bisher geplanten Veranstaltungen. Wenn Sie selbst eine Veranstaltung planen, können Sie sich gern mit entsprechenden Anfragen für Vorträge per Email an uns wenden.
- Geschäftsstellenmitarbeiterin Mirjam Dierkes wird bei den Frauen-Infotagen der Stadt Ludwigsburg zum Thema „Gleich – Gestellt?! mit Schwerpunkt auf Digitalisierung in der Arbeitswelt“ am 18.05. den Dritten Gleichstellungsbericht vorstellen. Anmeldung und weitere Informationen auf der Website des Landkreis Ludwigsburg.
- Sachverständige Prof. Dr. Indra Spieker trägt bei der Veranstaltung „Das vermessene Leben – Transformationen der digitalen Gesellschaft“ der Goethe-Universität Frankfurt am 1. und 2. Juli vor. Um ihren Vortrag „Macht durch und von Algorithmen – die Ohnmacht des Einzelnen und was die Regulierung dagegen tut“ zu hören, können Sie sich bis zum 31. Mai per Mail anmelden. Die Teilnahme ist vor Ort oder online jeweils kostenlos möglich.
Ihre Geschäftsstelle für den Dritten Gleichstellungsbericht
Geschäftsstelle Dritter Gleichstellungsbericht der Bundesregierung
Institut für Sozialarbeit und Sozialpädagogik e. V.
Postfach 50 01 51,
D-60391 Frankfurt a. M.
Website: dritter-gleichstellungsbericht.de
Twitter: @gleichgerecht
Mastodon: @gleichgerecht@mstdn.social