July 25, 2021

Zweite Meinung: Wir wissen, dass soziale Medien zu Gewalt aufstacheln können. Moderation kann helfen, wenn sie richtig gemacht wird

Als Facebook versuchte, sein externes Aufsichtsgremium dazu zu bringen, zu entscheiden, ob es Donald Trump dauerhaft verbieten sollte, zögerte der Vorstand und warf die heiße Kartoffel zurück an Facebook und befahl dem Unternehmen, den letzten Anruf innerhalb von sechs Monaten zu tätigen. Aber eine Person hatte unwissentlich eine wichtige Lektion in der Moderation von Inhalten angeboten, die Facebook und andere Technologieunternehmen bisher vermisst haben – Trump selbst.

Es ist dies: Um die Auswirkungen von entzündlichen Inhalten vorherzusagen und gute Entscheidungen darüber zu treffen, wann eingegriffen werden sollte, sollten Sie sich überlegen, wie die Menschen darauf reagieren.

Der Versuch, allein anhand des Inhalts abzuschätzen, ob dieser oder jener Beitrag jemanden zu Gewalt verleitet, ist ineffektiv. Einzelne Beiträge sind mehrdeutig, und außerdem richten sie ihren Schaden kumulativ an, wie viele andere Giftstoffe.

Anders ausgedrückt, Beiträge ausschließlich nach ihrem Inhalt zu beurteilen, ist wie das Studium von Zigaretten, um ihre Toxizität zu verstehen. Es ist eine nützliche Form von Daten, aber um zu verstehen, was Rauchen mit der Lunge der Menschen anrichten kann, studieren Sie die Lunge, nicht nur den Rauch.

Wenn Mitarbeiter von Social-Media-Unternehmen in den Wochen vor dem Angriff auf das Kapitol am 6. Januar die Reaktionen auf Trumps Tweets und Posts analysiert hätten, hätten sie konkrete Pläne für das Chaos anziehen sehen und hätten Maßnahmen ergreifen können, als Trump noch zu Gewalt anstiftete , statt nach dem Auftreten.

Es war 01.42 Uhr am 19. Dezember, als Trump twitterte: „Großer Protest in DC am 6. Januar. Sei dabei, wird wild!“ Der Satz „wird wild sein“ wurde zu einer Art Code, der auf anderen Plattformen, einschließlich Facebook, weit verbreitet war. Trump rief nicht ausdrücklich zu Gewalt auf oder sagte sie mit diesen Worten voraus, aber Tausende seiner Anhänger verstanden, dass er ihnen befahl, Waffen nach Washington zu bringen, um sie einzusetzen. Das haben sie online offen gesagt.

Mitglieder des Forums TheDonald reagierten fast sofort auf den schlaflosen Tweet. „Wir haben Marschbefehl, Bois“, lautete ein Post. Und ein anderer: „Er kann dir nicht gerade offen sagen, dass du revoltieren sollst. Das ist das nächste, was er jemals erreichen wird.“ Darauf kam die Antwort: “Dann bringen wir die Waffen mit.”

Ihre Aufstandspläne waren glücklicherweise ungewöhnlich, aber die Tatsache, dass sie sichtbar waren, war es nicht. Leute platzen online mit Dingen heraus. Soziale Medien bilden ein riesiges Gewölbe menschlicher Kommunikation, das Technologieunternehmen auf toxische Wirkungen wie Milliarden vergifteter Lungen untersuchen könnten.

Um extremistischer Gewalt besser vorzubeugen, sollten die Unternehmen mit der Entwicklung von Software beginnen, um nach bestimmten Arten von Veränderungen in der Reaktion auf die Posten mächtiger Persönlichkeiten auf der ganzen Welt zu suchen. Sie sollten sich auf Kontoinhaber konzentrieren, die gleichermaßen Vitriol liefern und anziehen – Politiker, Kleriker, Medienstars, Kumpel, die im Namen ihrer Chefs Spott und Verleumdung posten, und QAnon-Typen.

Die Software kann nach Anzeichen dafür suchen, dass diese Influencer als Billigung oder Aufruf zu Gewalt interpretiert werden. Algorithmus-Builder sind geschickt darin, Tags zu finden, die alle Arten von menschlichem Verhalten anzeigen; sie tun dies, um beispielsweise Anzeigen effektiver zu machen. Sie können auch Signale finden, die Gewalt in der Entstehung anzeigen.

Dennoch sollte kein Eingriff allein auf Basis von Software erfolgen. Die Menschen müssen überprüfen, was gekennzeichnet wird, und den Anruf tätigen, ob eine kritische Masse von Anhängern gefährlich aufgehetzt wird.

Was für die Entscheidungsfindung als entscheidend gilt, hängt vom Kontext und den Umständen ab. Moderatoren müssten diejenigen herausfiltern, die falsche Gewaltpläne posten. Sie haben Übung darin; Versuche zur Moderation von Spielinhalten sind weit verbreitet.

Und sie arbeiteten eine Checkliste mit Faktoren ab. Wie weit verbreitet ist die Wirkung? Sind diejenigen, die auf bekannte Bedrohungen reagieren? Haben sie Zugang zu Waffen und zu den beabsichtigten Opfern? Wie spezifisch sind ihre Pläne?

Wenn Moderatoren glauben, dass ein Beitrag zu Gewalt angestiftet hat, würden sie den Kontoinhaber mit einer Nachricht in diesem Sinne darauf aufmerksam machen: „Viele Ihrer Follower verstehen, dass Sie Gewalt unterstützen oder dazu aufrufen. Wenn dies nicht Ihre Absicht ist, sagen Sie dies bitte klar und öffentlich.“

Wenn der Kontoinhaber sich weigert oder seine Anhänger halbherzig zum Rücktritt auffordert (wie Trump es getan hat), würde die Last wieder auf das Technologieunternehmen verlagert, um einzugreifen. Es könnte damit beginnen, dass es seine Ergebnisse öffentlich bekannt gibt und versucht, den Kontoinhaber dazu zu bringen, Gewalt abzulehnen. Oder es könnte das Konto schließen.

Diese „Lunge studieren“-Methode wird nicht immer funktionieren; In einigen Fällen können Daten zu spät generiert werden, um Gewalt zu verhindern, oder der Inhalt wird so weit verbreitet, dass die Intervention von Social-Media-Unternehmen nicht genug bewirken wird. Aber die Konzentration auf Antworten und nicht nur auf erste Beiträge hat viele Vorteile.

Erstens würden Unternehmen Inhalte basierend auf nachgewiesenen Effekten entfernen, nicht auf umstrittenen Interpretationen der Bedeutung eines Beitrags. Dies würde die Chancen erhöhen, dass sie Hetze eindämmen und gleichzeitig die Meinungsfreiheit schützen.

Dieser Ansatz würde den Kontoinhabern auch eine Benachrichtigung und Gelegenheit zur Stellungnahme geben. Heute werden Posts oder Accounts oft summarisch und mit minimalen Erklärungen aufgenommen.

Schließlich würde es einen Prozess etablieren, der alle Plakate gleich behandelt, anstatt wie heute Technologieunternehmen Politikern und Persönlichkeiten des öffentlichen Lebens den Vorzug zu geben, was sie allzu oft dazu bringt, Gemeinschaftsstandards zu missachten und zu Gewalt aufzustacheln.

Im September 2019 kündigte Facebook beispielsweise an, seine eigenen Regeln gegen Hassreden in Posts von Politikern und politischen Kandidaten nicht mehr durchzusetzen. „Es ist nicht unsere Aufgabe, einzugreifen, wenn Politiker sprechen“, sagte Nick Clegg, ein Facebook-Manager und ehemaliger britischer Amtsinhaber. Facebook würde Ausnahmen machen, „wenn Sprache Menschen gefährdet“, aber Clegg erklärte nicht, wie das Unternehmen solche Äußerungen identifizieren würde.

Auch große Plattformen wie Twitter und Facebook haben Politikern einen breiteren Freipass mit a Ausnahme „Nachrichtenwert“ oder „öffentliches Interesse“: Fast alles, was von Persönlichkeiten des öffentlichen Lebens gesagt oder geschrieben wird, muss online bleiben. Die Öffentlichkeit muss wissen, was solche Leute sagen, heißt es.

Natürlich sollten private Unternehmen den öffentlichen Diskurs nicht ersticken. Aber auch ohne Apps oder Plattformen können Personen in prominenten Positionen die Öffentlichkeit immer erreichen. Auch in den sozialen Medien hat die Regel des „Rechts der Öffentlichkeit auf Information“ eine zirkuläre Wirkung, da die Nachrichtenstärke mit dem Zugriff auf und ab geht. Politikern eine ungefilterte Verbindung zu geben, verleiht ihnen Einfluss und macht ihre Rede berichtenswert.

Im Fall von Trump erlaubten ihm Social-Media-Unternehmen, über Jahre hinweg Gewalt anzudrohen und anzustacheln, oft mit Lügen. Facebook zum Beispiel intervenierte nur, als er offensichtlich gegen seine Richtlinien gegen COVID-19-Fehlinformationen verstieß, bis er sein Konto am 7. Januar schließlich sperrte, lange nachdem seine Anhänger das Kapitol durchbrochen hatten. Indem Unternehmen auf Gewalt warteten, machten sie ihre Regeln gegen die Aufstachelung zu Gewalt zahnlos.

Unabhängig von der endgültigen Entscheidung von Facebook über das Verbot des ehemaligen Präsidenten wird es zu spät kommen, um den Schaden zu verhindern, den er unserer Demokratie mit Online-Aufhetzung und Desinformation zugefügt hat. Technologieunternehmen verfügen über leistungsstarke Tools, um ihre eigenen Regeln gegen solche Inhalte durchzusetzen. Sie müssen sie nur effektiv nutzen.

Susan Benesch ist die Gründerin und Direktorin des Dangerous Speech Project, das sich mit Sprache befasst, die zu Gewalt zwischen Gruppen inspiriert, und Wege, sie zu verhindern und gleichzeitig die Meinungsfreiheit zu schützen. Sie ist außerdem Fakultätsmitarbeiterin am Berkman Klein Center for Internet & Society der Harvard University.