Navigation auf uzh.ch

Suche

Citizen Science Zürich

Stop Hate Speech

Ein Projekt zur Optimierung von Machine Learning Algorithmen zur Erkennung von toxischen Kommentaren

Worum ging es?

Im Rahmen des Projekts Stop Hate Speech hatte das Projekt-Team in Kooperation mit alliance F ein Klassifikationssystem für Hate Speech und toxischen Sprachgebrauch entwickelt. Um dieses zu optimieren, zählten sie auf die Mithilfe von Freiwilligen.

Das Projekt-Team hatte Kommentare aus Online-Foren von verschiedenen Schweizer Zeitungen gesammelt. Einige davon enthielten Hate Speech oder toxischen Sprachgebrauch, andere nicht. Die Einschätzung von Hate Speech und toxischem Sprachgebrauch ist sehr subjektiv. Um das System zu optimieren, wurden Teilnehmende gesucht, die mithalfen, die Kommentare zu bewerten.

Wie funktionierte es?

Teilnehmende wurden gebeten, Kommentare zu Artikeln aus dem Internet zu lesen und zu bestimmen, ob es sich um Hate Speech respektive toxischen Sprachgebrauch handelte oder nicht. Das ganze Projekt wurde auf unserem Citizen Science Project Builder durchgeführt.

Es gibt keine allgemeingültige Definition von Hate Speech. Eine weit verbreitete und auch von den Vereinten Nationen verwendete Definition versteht unter Hate Speech den Gebrauch von Sprache, durch den eine Person oder eine Gruppe aufgrund ihrer Identität – z.B. aufgrund ihres Geschlechts, Alters, ihrer Sexualität, Religion, Nationalität, Hautfarbe oder Herkunft, geistigen oder körperlichen Beeinträchtigung – angegriffen oder abgewertet wird.

Eine breitere Definition von Hate Speech kann auch abwertenden Sprachgebrauch gegen eine Person oder Gruppe aufgrund ihres sozialen Status (z.B. Bildung oder Einkommen) oder ihrer politischen Einstellung beinhalten.

Zusätzlich gibt es toxischen/hasserfüllten Sprachgebrauch, der zwar nicht unbedingt Hate Speech ist, aber trotzdem die Diskussionskultur beeinträchtigt und Feindseligkeit fördert. Dazu gehören allgemeine Beleidigungen, Drohungen oder vulgäre Aussagen, welche sich aber nicht gegen eine Person oder eine Gruppe aufgrund ihrer Identität richten.

Welche Definition von Hate Speech die Teilnehmenden für Ihre Annotationen verwendeten, war ihnen überlassen. Wichtig war einfach, dass bei den Annotationen nicht nur markiert wurde, ob etwas Hate Speech oder toxischen Sprachgebrauch enthält (oder nicht), sondern auch gegen welche Gruppe(n) sich Hate Speech richtete.

Die Teilnahme ist beendet

Die Datenerhebung ist nun abgeschlossen, da das Ziel von 1500 Annotationen (3x 500 Kommentare) erreicht wurde. Das Projekt-Team wertet die Daten derzeit aus. Ein grosses Dankeschön an alle, die teilgenommen haben!

Team

 

Logo Digital Democracy Lab
Das Digital Democracy Lab erforscht die Auswirkungen der digitalen Technologie auf Politik und Demokratie mit Methoden der Computational Social Science. Es bietet eine Forschungsinfrastruktur, die eine effiziente, skalierbare und reproduzierbare Datenerfassung und -analyse ermöglicht. Schlüsselbereiche der Forschung sind politische Kommunikation und öffentliche Meinung, E-Government und öffentliche Verwaltung, KI und Governance, zivile Technologie und politische Beteiligung, die Regulierung von Technologieplattformen sowie staatliche Repression und Überwachung.

 

 

Logo Immigration Policy Lab                                                      

 

Das Immigration Policy Lab (IPL) erforscht Wirkungen von Migrations- und Integrationspolitiken. Ziel ist es, anhand empirischer Evidenz Antworten darauf zu geben, welche Politikinstrumente funktionieren und welche nicht, und neue Lösungsansätze zu entwickeln. Basierend auf umfangreichen Daten und den neuesten statistischen Verfahren liefert die Forschungsgruppe wissenschaftliche Grundlagen um das gesellschaftliche Zusammenleben zu verbessern.

 

 

Logo Stop Hate Speech

 

«Stop Hate Speech», ist ein Projekt, welches von alliance F, der Dachorganisation der Schweizer Frauenorganisationen, initiiert wurde. Gemeinsam mit dem Digital Democracy Lab, dem Immigration Policy Lab und weiteren Partnern zielt es darauf ab, den Verbreitungsgrad von Hate Speech zu dokumentieren und die Effektivität verschiedener Gegenrede-Strategien in der Schweiz zu testen. Dazu hat das Projekt einen Algorithmus zur Erkennung von Hassrede entwickelt und entwirft randomisierte Feldexperimente, um die Effekte von Gegenrede zu messen.