Sep 032015
 
Die Teilnehmer beim BRICks-Roundtable-Gespräch.

Die Teilnehmer beim BRICkS-Roundtable-Gespräch.

“Im Herbst hätte ich nie gedacht, dass wir ein so aktuelles Projekt haben”, eröffnet Aycha Riffi, Leiterin des EU-Projektes BRICkS mit Blick auf die derzeitige Flüchtlingsdebatte den Roundtable mit Social-Media-Managern, Journalisten und Profis aus dem Bereich der Medienbildung. Seit November 2014 läuft das Projekt mit Partnern aus Italien, Belgien, Tschechien und Spanien, das sich mit “Hate Speech”, Hasskommentaren im Internet, beschäftigt. In einer ersten Phase wurden beispielhafte Fälle, hauptsächlich auf eigenen Websites oder Facebook, recherchiert und Redaktionen befragt, wie sie mit Hasskommentaren umgehen.

Unter den recherchierten Beispielen sind unter anderem der Kommentar von Anja Reschke zum Gedenken an Auschwitz, der Fall Tugce A., der Shitstorm gegen die deutsch-türkische Schauspielerin Sila Şahin, die für den Playboy posierte und dann in einer Rolle mit Kopftuch auftrat oder die Kommentare zum Fall des schwulen jungen Mannes Nasser, der sich gegen seine Zwangsverheiratung wehrte. “Die Recherche hat irgendwann mal aufgehört, aber wir könnten natürlich immer weiter machen”, sagt Aycha Riffi, denn es gebe immer neue Fälle oder es gibt neue Entwicklungen. Da aber von Januar bis April 2016 schon die Workshops mit Jugendlichen und jungen Erwachsenen an Schulen und anderen Bildungseinrichtungen stattfinden sollen, beginnt jetzt der Austausch mit Fachleuten und Partnern, um ein Trainingsprogramm zu entwickeln.

“Wenn einer anfängt zu pöbeln …”

Als Grundlage dienen auch Interviews mit Social-Media-Managern oder Journalisten verschiedener Medien. In den Fragebögen kristallisierten sich verschiedene Strategien im Umgang mit den Kommentatoren heraus, zum Beispiel “Wenn Leute auffällig werden, setzen wir sie auf Moderation” oder “Alle müssen sich registrieren”. Der Social-Media-Chef der “Welt”, Martin Hoffmann schreibt über seine Strategie, den Kommentaren aktiv und teilweise sarkastisch zu begegnen: “Unsere Social Media Redakteure verstehen sich nicht als Moderatoren sondern als selbstbewusste Diskussionsteilnehmer.” Auch wenn es sich hierbei nicht um eine wissenschaftliche Erhebung handelt, zeigten sich doch allgemeine Fragen und Theorien, die als Grundlage für die weitere Arbeit dienten.

Zwar solle der Schwerpunkt des Projektes der Umgang mit Hate Speech sein, aber die Frage, wer Hasskommentare schreibt, könne bei einer Strategie zum Umgang mit den Kommentaren helfen. Hier gehen viele der Antwortenden von einer “Broken-Windows-Theorie” aus: “Wenn einer ungestraft anfängt zu pöbeln, dann machen die anderen mit.” Über den Umgang mit Hasskommentaren in seiner Redaktion berichtet Stefan Rathgeber vom Medienhaus Bauer, das unter anderem die “Marler Zeitung” herausgibt. “Seit wir die Paywall haben, ist es besser geworden”, erzählt er aus dem redaktionellen Alltag, “aber in der Flüchtlingsdebatte nehmen die Hass-Kommentare wieder zu”. Diese müssten gar nicht strafrechtlich relevant sein, aber wenn die Gefahr bestünde, dass sich die Leser darauf einschießen, lösche die Redaktion. “Da wird in der Redaktion lange beraten”, erklärt er, “das ist eine neue Aufgabe für uns.” Zudem habe die Redaktion eine Netiquette aufgestellt und man müsse sich registrieren. “Aber die Leute nutzen ganz bewusst Wegwerf-Adressen und diskutieren anonym härter als unter Klarnamen. Sie vagabundieren sogar durch das Internet und kommentieren wahllos, ohne auf den Artikel einzugehen.”

Guidelines vorab entwickeln 

Empfehlungen für Social-Media-Manager

Empfehlungen für Social-Media-Manager

Marie Huchthausen von der Business Academy Ruhr, die Weiterbildungen im Bereich Social-Media anbieten, verweist darauf, dass man auf der eigenen Website oder dem eigenen Blog noch viele Möglichkeiten hat, zu agieren um Hasskommentare einzuschränken. Auf anderen Plattformen hingegen sei es schwierig, insbesondere auf Twitter gebe es kaum Möglichkeiten. “Auf Facebook kann man Kommentare aber verschieben oder ganz stark positiv reagieren, um dem einen anderen Ton zu geben”, erklärt sie. Wichtig sei, eine Sensibilität dafür zu entwickeln, auf welcher Plattform die Diskussion stattfindet und vorab Guidelines für den Umgang zu entwickeln. Die Strategie müsse authentisch zum Gesamtkontext passen. Zu den Social-Media-Plattformen wirft Marie Huchthausen aber noch die Frage auf, an welchen Stellen Plattform-Betreiber verantwortlich seien. “In Gruppen können sich sogar Pädophile ungestört austauschen. Inwiefern muss es juristische Einschränkungen für Plattform-Betreiber geben?” fragt sie. “Oft können wir die Diskussion gar nicht mehr kontrollieren, weil sie auf anderen Plattformen stattfindet”, ergänzt Stephan Rathgeber. Artikel würden zum Beispiel in eigenen Facebook-Gruppen gepostet und dort darüber diskutiert.

Persönliche Angriffe gegen Journalisten

“Als ich mal kritisch über die NPD geschrieben hatte, ging es so weit, dass sie meine Adresse veröffentlicht haben. Ich hatte auch schon mal zerstochene Reifen”, erzählt lakonisch der freie Journalist Pascal Hesse, der im Landesvorstand des Deutschen Journalisten-Verbandes NRW tätig ist. Er versuche, seine private Anschrift geheim zu halten, aber heute sei es leichter, jemanden ausfindig zu machen und persönliche Angriffe seien auch häufiger geworden. “Wenn Sie einen Beitrag über Flüchtlingsunterkünfte schreiben, finden Sie in den Kommentaren auch schon mal gerne Bezüge auf die Privatadresse”, erzählt er aus seinem Arbeitsleben. “Es wird von rechtsextremen Organisationen gezielt dazu aufgerufen, unter entsprechenden Artikeln zu kommentieren”, berichtet die Studentin Christina Josupeit, die sich in ihrer Masterarbeit mit Diskriminierung im Netz beschäftigt hat. Und Marie Huchthausen ergänzt: “Die Gruppen haben  das sehr gut raus, organisieren sich um nachts zu posten, wenn in den Redaktionen keiner arbeitet.” Hinzu käme, so Pascal Hesse, dass sich die Nutzer in nicht-öffentlichen Facebook-Gruppen gegenseitig immer wieder bestätigten, dass sie recht haben. So würde auch der “Lügenpresse”-Vorwurf bestätigt, der sehr praktisch sei, wie Guido Kowalski anmerkt, der im Grimme-Institut gemeinsam mit Aycha Riffi für das Projekt BRICkS verantwortlich ist: “Wenn da etwas steht, was einem nicht passt, hat man sofort eine Erklärung.”

Selbstzensur und die Macht der Trolle

Aber auch die eigene Community kann so strukturiert sein, dass die Reaktionen auf bestimmte Themen vorher klar sind. Aude Gensbittel, die für die französischsprachige Redaktion der Deutschen Welle arbeitet, postet auf Facebook keine Beiträge zur Homosexualität mehr. “Die Beiträge im Programm gibt es, aber auf Facebook kommt es nicht”, erklärt sie, die heftigen Reaktionen seien vorhersehbar. Die Frage aus der Runde, ob das nicht schon die Macht der Trolle sei, kann sie nur dahingehend beantworten, dass in den eng getakteten redaktionellen Strukturen gar nicht die Zeit sei, sich mit den Hasskommentaren auseinanderzusetzen. “Die Moderation der Kommentare ist eine starke zusätzliche Arbeitsbelastung für Journalisten”, stimmt Pascal Hesse zu, “für die reguläre Arbeit bleibt deutlich weniger Zeit.” Da das Projekt BRICkS aber auch die positiven Seiten hervorheben soll, hat das Grimme-Institut noch ein paar Best-Practice-Beispiele parat: Marie von Lobenstein berichtet aus der Recherche, dass bei bestimmten Themen die Kommentare gar nicht erst eingeschaltet würden, dass “Spotlighting” gut funktioniere, bei dem gute Kommentare von der Redaktion nach oben geschoben werden und so zuerst ins Blickfeld rücken und dass es im Fall Nasser gut war, immer gleich zu Beginn auf die Netiquette zu verweisen. Aycha Riffi ergänzt ein Beispiel, das die Projektpartner aus Italien vorgestellt hatten: Bei “La Stampa” wird auf Kommentare, die gegen Punkte der Netiquette verstoßen, mit Piktogrammen geantwortet. Auch gebe es Fälle, in denen für das Kommentieren gezahlt werden müsse.

“Es gibt viele Strategien gegen Hasskommentare, aber man muss auch überlegen, was zu einem passt”, fasst Aycha Riffi zusammen.

Meike Isenberg von der Landesanstalt für Medien NRW weist darauf hin, dass hinter der vermeintlichen Anonymität im Netz ja durchaus “empathiebgabte” Menschen stecken. Und diese “Begabung” ist ein möglicher Ansatzpunkt für eine pädagogische Intervention bzw. eigne sich für die Präventionsarbeit. Im Projekt klicksafe experimentiere man in dieser Hinsicht, etwa im Bereich der Medienethik. In diese Richtung geht auch ein Video des Litauischen Zentrums für Menschenrechte.

Daneben wird im BRICkS Projekt der Ansatz diskutiert, Menschen stärker auf die Konsequenzen ihres Handels aufmerksam machen, denn “der Auslöser für die Hass-Kommentare hatte oft gar nichts mehr mit dem eigentlichen Thema zu tun”, ergänzt Guido Kowalski mit Blick auf die Ursachenerhebung im Projekt. Methode der Wahl: digital storytelling. Teilnehmer sollen dazu motiviert werden, Geschichten mit unterschiedlichen Handlunsgverläufen entwickeln, die illustrieren: Du hast die Wahl, bei allem was Du tust.

Der pädagogische Blick

Am Nachmittag dann wechselte die Teilnehmerschaft noch einmal deutlich: Lehrerinnen und Lehrer sowie Profis aus dem Bereich der Medienbildung diskutierten insbesondere begriffliche Abgrenzung zwischen “Hate Speech”, Hasskommentaren im Internet, und etwa Cybermobbing. Ergebnis: Während es sich bei Cybermobbing in der Regel um die gezielte Diffamierung einer einzelnen Person über Digitalmedien handelt, richtet sich “Hate Speech” eher gegen ganze Personengruppen. Richten sich verbale Angriffe gegen Einzelne, werden diese insbesondere als Gruppenangehörige adressiert. In Deutschland ist der juristische Bezugspunkt (daher) vielfach der “Tatbestand der Volksverhetzung“, erklärt etwa die Amadeu Antonio Stiftung in ihrer Publikation „geh sterben! Umgang mit Hasskommentaren im Internet“.

Wenn Jugendlichen und junge Erwachsene über Hasskomentare reden, geht diese Differenzierung aber vielfach verloren, berichtet etwa Lehrerin Gudrun Kranacher: “Schülerinnen und Schüler unterscheiden eher zwischen allgemeinen Hassreden gegenüber hochgeladenen Inhalten und gezielter, auch längerfristigen Angriffen gegenüber Einzelnen. Letzteres entspricht dann in etwa dem, was üblicherweise Cybermobbing genannt wird und auch schon mal diffamierende Fotos sein können, die Betroffene überall hin verfolgen. Ein Schulwechsel läuft dann einfach ins Leere, die Fotos sind längst da.” Trauriges Urteil: Ihrer Einschätzung nach, haben fast alle Jugendliche schon mal Erfahrungen mit Hasskommentaren gemacht.

Gudrun Sommer, vom Duisburger Dokumentarfilmfestival “doxs” für Kinder und Jugendliche: “Ich finde ich begriffliche Differenzierung wichtig – in Hinblick auf gesellschaftliche Kontexte, also für die Vermittlung, und in Hinblick auf die Identifizierung von Strategien, wie mit Hasskommentaren umzugehen ist.” Und bezüglich der methodischen Umsetzung rät sie: “Ich würde versuchen, noch stärker im Medium zu arbeiten, also da wo die Hasskommentare aufkommen. Vielleicht wäre eine Idee, die ‘digitalen Geschichten’ auf Facebook oder YouTube zu veröffentlichen?”

Siehe auch den Blogbeitrag im Projekt “NRW denkt nach(haltig)!”: Erfahrungsaustausch zum Thema „Hate Speech“ im Grimme-Institut.

 Leave a Reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

(required)

(required)