Direkte Folgen für Sicherheit KI verstärkt digitale Gewalt gegen queere Menschen
Personen aus der LGBTIQ+-Community sind laut neuer Forschung besonders häufig von digitaler Gewalt betroffen, die durch den Einsatz künstlicher Intelligenz gezielt verstärkt wird. Dies ergab eine Analyse des Weizenbaum-Instituts in Berlin, die deutlich macht, wie Plattform-Algorithmen und KI-Technologien gezielte Angriffe und Desinformation im Netz fördern – mit direkten Folgen für die Sicherheit und Teilhabe queerer Personen. Die Untersuchung unterstreicht die Dringlichkeit sowohl technischer als auch rechtlicher Maßnahmen gegen gruppenspezifische digitale Übergriffe, insbesondere mit Blick auf die aktuelle Entwicklung von Gesetzesentwürfen im Bereich Gewaltschutz.
Das Wichtigste im Überblick
- Das Weizenbaum-Institut stellt einen Zusammenhang zwischen KI-generierter Desinformation und vermehrter digitaler Gewalt gegen LGBTIQ+-Personen fest.
- Plattform-Algorithmen verstärken gezielt emotionalisierende und spaltende Inhalte, was queerfeindliche Attacken befördert.
- Der geplante Gesetzentwurf zum digitalen Gewaltschutz im Bundesjustizministerium soll explizit auch KI-gestützte Falschinformationen umfassen.
- Besonders trans* Personen gelten als stark exponiert gegenüber digitaler Gewalt.
- Das Weizenbaum-Institut fordert eine verbindliche Einbeziehung queerer Gruppen im neuen Schutzgesetz.
Digitale Gewalt trifft queere Gruppen härter
Die Untersuchung des Weizenbaum-Instituts zeigt, dass queere Menschen überdurchschnittlich oft Zielscheibe von digitaler Gewalt und Desinformation werden, insbesondere über soziale Netzwerke. KI-gestützte Technologien ermöglichen die massenhafte und schnelle Verbreitung von Deepfakes, manipulierten Texten und abwertenden Gerüchten. Medienwissenschaftlerin Martha Stolze warnt, dass trans* Personen aufgrund ständiger gezielter Attacken besonders gefährdet seien:
„Diese Form digitaler Gewalt richtet sich in erheblichem Maße auch gegen LGBTQI*, insbesondere gegen trans Personen.“
Plattformen und Politik stehen in der Pflicht
Soziale Netzwerke genießen laut Studie eine Schlüsselrolle: Ihre Algorithmen befördern oft jene Inhalte, die polarisieren und spalten. Empirische Studien der Europäischen Grundrechteagentur bestätigen, dass gezielte Hetze gegen sexuelle Minderheiten online zunimmt. Das Weizenbaum-Institut sieht daher die Betreiber sozialer Netzwerke und Plattformen stärker in der Pflicht, wirksame Gegenmaßnahmen zu etablieren und nicht nur reaktiv zu löschen („Notice-and-Action“-System). Die Umsetzung der Vorgaben aus dem Digital Services Act der EU ist dabei zentral—denn dieser verpflichtet Plattformen explizit, Risiken für marginalisierte Gruppen laufend zu prüfen und zu reduzieren.
Anpassungen im Gewaltschutzgesetz gefordert
Derzeit arbeitet das Bundesjustizministerium an einem digitalen Gewaltschutzgesetz, das nach Einschätzung mehrerer Experten einen umfassenden und expliziten Schutz insbesondere vulnerabler Gruppen wie queeren und trans* Personen vorsehen muss. Wissenschaftlerinnen und Juristen fordern, dass sämtliche Formen von KI-gestützter Desinformation—sowohl Bild- als auch Textformate—explizit im Gesetzentwurf aufgenommen werden. Erfahrungsberichte aus der Community und internationale Studien, unter anderem der Organisation ILGA Europe, stützen die Forderung, digitale Gewalt konsequenter einzudämmen.
Wichtige Fragen zum Thema
Was gilt als digitale Gewalt gegen LGBTIQ+? Dazu zählen gezielte Beleidigungen, Rufschädigung, Falschinformationen und Drohungen im Internet, häufig auch per Bild- oder Videoverfälschung.
Welche Rolle spielt der Digital Services Act? Der DSA verpflichtet große Internetplattformen, effektiv gegen Hass und Desinformation vorzugehen und besonders gefährdete Gruppen zu schützen.
Wie betroffen sind trans* Personen konkret? Trans* Menschen berichten EU-weit am häufigsten von digitaler Gewalt – laut einer FRA-Studie mindestens jede dritte trans* Person.
Abschließend bleibt offen, wie strikt und umfassend der deutsche Gesetzgeber den Schutz vor digitaler Gewalt ausgestalten wird. Die Erwartungen aus Forschung und Community richten sich auf eine konsequente Einbindung effektiver KI-Regulierung und klare Schutzmechanismen für alle Betroffenen.