Sexismus und Mehrfachdiskriminierung
Cybersexismus
Digitale Gewalt fängt nicht im Internet an und endet auch nicht dort. Es ist wichtig, ihre geschlechtsspezifische Dimension anzuerkennen. Digitale geschlechtsspezifische Gewalt ist eigentlich eine Fortsetzung und ein Spiegel von sexistischer Gewalt im Offline-Leben, die es auch vorher schon gab. Vorurteile und Ausschlüsse setzen sich im Digitalen fort. Genauso wie sexistische Vorurteile im analogen Leben beispielsweise zu Mythen über Vergewaltigungen führen und zu Täter-Opfer-Umkehr, passiert das auch bei sexualisierter Gewalt im Internet. Cybersexismus ist also eigentlich auch nur das: Sexismus. Wer digitale Gewalt bekämpfen will, muss deshalb auch Sexismus bekämpfen. Die Fehlannahme, das sei ein Internetphänomen, hilft dabei nicht.
Mehrfachdiskriminierung und digitale Gewalt
Oft vermischen sich unterschiedliche Diskriminierungsformen miteinander. Frauen und trans Personen, die aufgrund ihrer (zugeschriebenen) Identitätsmerkmale offline diskriminiert werden, erfahren auch online Gewalt auf Grundlage dieser Merkmale. Gleichzeitig hat die sexuelle Orientierung, die Religion, Behinderungen oder die Herkunft einer Person ebenso Einfluss auf die Gewalt- und Diskriminierungserfahrung. Hater, also Angreifer die im Netz die Hatespeech ausüben, beziehen sich absichtlich auf Aspekte der Identität von Menschen, um sie zu verletzen.
Das mehrfachdiskriminierte Personen auch im Netz öfter und anders angegriffen werden, ist durch Forschung belegt.
Ich habe nie Gewalt erfahren, nur weil ich eine Frau bin – es hatte beinahe immer etwas mit meiner Hautfarbe zu tun.
Charlie Brinkhurst, britische Journalistin
Frauen mit Rassismuserfahrungen, trans Frauen, nicht-binäre Personen und Frauen mit Behinderungen werden nicht nur auf Twitter besonders häufig und auf vielen verschiedenen Ebenen angegriffen. Sie erleben digitale Gewalt und Diskriminierungen nicht nur aufgrund ihrer Herkunft oder einer Behinderung, sondern auf vielfältige Art und Weise in einer besonderen Quantität und Qualität. Dies erschwert den Umgang mit Gewalterfahrungen.
Ich bin Teil der Schottisch-Asiatischen Community. Ich bin Muslima. Und ich bin eine Frau. Es geht also um alles. Es hat einen exponentiellen Effekt, so dass die Leute dann Gemeinheiten aus ganz unterschiedlichen Gründen verteilen. Einige, weil ich all das bin, einige, weil ich das eine davon bin oder zwei dieser Dinge. Das macht es so viel schwerer damit umzugehen, weil man sich nur fragt, wo fange ich an?
- Tasmina Ahmed-Sheikh, ehem. britische Politikerin (Übersetzung: bff)
Der Bericht von Amnesty kann hier gelesen werden: Toxic Twitter - A Toxic Place For Women
Die Zitate sind im zweiten Kapitel des Berichts zu finden.
Achtung: der Bericht enthält Beschreibungen von Gewalt
Diskriminierende Algorithmen und "KI"
Sogar Software kann diskriminieren. Software trifft oft Entscheidungen die unser Leben beeinflussen. Sogenannte Biases (Vorurteile oder Verzerrungen) in Datensätzen führen dazu, dass Algorithmen und sogenannte Künstliche Intelligenz Vorurteile und Marginalisierung fortsetzen und verstärken. Ein Beispiel dafür ist Gesichtserkennungs-Software, die Gesichter von Schwarzen Menschen schlechter unterscheiden kann oder nicht einmal als menschliche Gesichter erkennt. Ebenso kommt es vor, dass Werbe-Anzeigen für Jobs auf digitalen Diensten nach dem Merkmal „Geschlecht“ angezeigt oder nicht angezeigt werden. Dadurch erhalten Frauen gar nicht erst die Chance sich auf bestimmte Stellen zu bewerben, weil sie gar nichts davon erfahren.
KI-Anwendungen reproduzieren gleichermaßen Vorurteile. So werden beispielsweise von vielen Bild-Generatoren Frauen oft sexualisiert dargestellt oder jung, dünn und faltenlos. Besonders problematisch ist all das, wenn bei wichtigen Entscheidungen KI oder andere Software eingesetzt wird: In Personal-Abteilungen, bei der Polizei oder im Asyl-Verfahren kann dann eine vorurteils-belastete Maschine über die Zukunft von Menschen entscheiden.