Zu langsam bei der Verhinderung von Hassreden, die zu Gewalt in Myanmar führten Facebook

1444
Ronald Woods

Die ethnische Gewalt in Myanmar ist schrecklich und "zu langsam", um die Verbreitung von Fehlinformationen und Hassreden auf seiner Plattform zu verhindern, gab Facebook am Donnerstag zu.

Die Aufnahme erfolgte, nachdem eine Reuters-Untersuchung am Mittwoch ergab, dass Facebook Schwierigkeiten hatte, Hassposts über die Minderheit Rohingya anzusprechen. Der Social-Media-Riese sagte, die Rate, mit der schlechte Inhalte auf Birmanisch gemeldet werden, sei es Hassreden oder Fehlinformationen, sei gering.

Dies ist auf Herausforderungen bei unseren Berichterstellungstools, technische Probleme bei der Anzeige von Schriftarten und mangelnde Vertrautheit mit unseren Richtlinien zurückzuführen. Wir investieren stark in künstliche Intelligenz, die proaktiv Beiträge kennzeichnen kann, die gegen unsere Regeln verstoßen,Sara Su, Produktmanagerin bei Facebook, sagte in einer Erklärung.

Laut Facebook wurden im zweiten Quartal 2018 proaktiv etwa 52 Prozent der Inhalte identifiziert, die für Hassreden in Myanmar entfernt wurden.

Dies ist ein Anstieg von 13 Prozent im letzten Quartal 2017 und das Ergebnis der Investitionen, die wir sowohl in Erkennungstechnologie als auch in Personen getätigt haben. Diese Kombination hilft dabei, potenziell verletzende Inhalte und Konten zu finden und sie zur Überprüfung zu kennzeichnen,Sagte Facebook.

Facebook hat bereits letzte Woche proaktiv Beiträge identifiziert, die auf eine Bedrohung durch glaubwürdige Gewalt in Myanmar hinweisen.

Wir haben die Posten entfernt und sie zivilgesellschaftlichen Gruppen gemeldet, um sicherzustellen, dass sie sich potenzieller Gewalt bewusst sind,Sagte der Blog-Beitrag.

Im Mai forderte eine Koalition von Aktivisten aus acht Ländern, darunter Indien und Myanmar, Facebook auf, einen transparenten und konsequenten Ansatz für die Moderation einzuführen.

Die Koalition forderte Bürgerrechts- und politische Voreingenommenheitsprüfungen in Bezug auf die Rolle von Facebook bei der Bekämpfung von Menschenrechtsverletzungen, der Verbreitung von Fehlinformationen und der Manipulation demokratischer Prozesse in ihren jeweiligen Ländern.

Neben Indien und Myanmar waren Bangladesch, Sri Lanka, Vietnam, die Philippinen, Syrien und Äthiopien die anderen Länder, die die Aktivisten vertraten.

Facebook gab bekannt, dass im Juni über 60 Sprachexperten aus Myanmar Inhalte überprüft haben und bis Ende dieses Jahres mindestens 100 haben werden.

„Es reicht jedoch nicht aus, weitere Prüfer hinzuzufügen, da wir uns nicht allein auf Berichte verlassen können, um schlechte Inhalte zu erkennen. Ingenieure im gesamten Unternehmen entwickeln KI-Tools, mit denen wir missbräuchliche Beiträge identifizieren können “, sagte der Social-Media-Riese.

Nicht nur Myanmar, sondern auch Aktivisten in Sri Lanka haben argumentiert, dass der Mangel an lokalen Moderatoren - insbesondere Moderatoren, die die singhalesische Sprache, die von der buddhistischen Mehrheit des Landes gesprochen wird, fließend sprechen - Hassreden auf der Plattform wild gemacht haben.

Facebook sagte, es arbeite mit einem Netzwerk unabhängiger Organisationen zusammen, um Hassbeiträge zu identifizieren.

Wir konzentrieren unsere Arbeit zunächst auf Länder, in denen falsche Nachrichten Folgen für Leben oder Tod hatten. Dazu gehören Sri Lanka, Indien, Kamerun und die Zentralafrikanische Republik sowie Myanmar,Sagte die Firma.


Bisher hat noch niemand einen Kommentar zu diesem Artikel abgegeben.