Компанія «Фейсбук» робить більш жорсткими правила модерації контенту щодо самогубства, нанесення людьми собі травм та розладів харчування.

Як пише The Guardian, компанія пішла на такий крок після критики своїх правил модерації шкідливого контенту.

З соціальної мережі «Фейсбук» зображення, де люди самі себе калічать, будуть видаляти.

А в інстаграмі, як заявляють, такий контент «буде набагато важче знайти» і він не з’являтиметься рекомендаціях. Тобто до нововведень алгоритми соціальної мережі могли пропонувати переглянути побідні зображення.

«З квітня по червень 2019 року у фейсбуці ми відфільтрували понад 1,5 мільйона різного контенту щодо самогубства та нанесення людьми собі травм. 95% з цєї кількості ми виявили ще до того, як нам повідомили про це інші користувачі. В інстаграмі ми вжили заходів щодо понад 800 тис. такого контенту. 77% було прибрано до подання нам скарги», — пише компанія у своєму блозі. Вона додає, що також працює над проблемою контенту в інстаграмі, який стосується розладів харчування.

The Guardian нагадує, що компанія «Фейсбук» має команду модераторів, яка стежить за контентом та фільтрує, приміром, прямі трансляції насильницьких дій чи самогубств. Для модерації компанія працює з принаймні п’ятьма аутсорсинговими постачальниками послуг щонайменше у восьми країнах.

Источник: ms.detector.media

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here