Facebook отчитался о борьбе с оскорбительным контентом. Сколько удаляют и кто это делает

Во вторник утром в Facebook опубликовал отчет по обеспечению соблюдения стандартов сообщества, в котором рассматриваются методы социальной сети для отслеживания контента, который нарушает определенные стандарты

Отчет опубликован в период растущей критики в отношении того, как Facebook контролирует контент, который он показывает пользователям.

Сейчас социальная сеть подвергается интенсивному анализу на фоне сообщений о дезинформации и пропаганде, в частности политической, а также новости о том, что компания Cambridge Analytica, которая работала над избирательной кампанией президента Трампа 2016 года, смогла получить доступ к данным миллионов пользователей через соцсеть.

Генеральный директор Facebook Марк Цукерберг написал на своей странице в Facebook во вторник:

"ИИ все еще нуждается в улучшении, прежде чем мы сможем использовать его для эффективного удаления более лингвистически нюансированных проблем, таких как разжигание ненависти на разных языках, но мы над этим работаем", -пишет он.

Цуерберг также отметил, что за первые три месяца этого года из соцсети сняли 837млн единиц спама и отключили 583 млн фейковых аккаунтов.

Видео BBC Украина.

Чтобы различать оскорбительный контент, Facebook разделяет его на категории: насилие, видео и фото для взрослых, террористическая пропаганда, речь ненависти, спам и поддельные счета.

В отчете говорится, что хотя компания по-прежнему просит людей сообщать об оскорбительном контенте, Facebook все больше использует искусственный интеллект для отсеивания вредоносных сообщений, прежде чем кто-либо их увидит.

Более 85% из 3,4 млн постов с насильственным контентом были замечены искусственным интеллектом в первом квартале.

По оценкам компании, 0,22 - 0,27% контента нарушили стандарты Facebook о насильственном содержание за первые три месяца. Для сравнения, в четвертом квартале прошлого года этот показатель составлял 0,16 - 0,19%.

То есть, от 22 до 27 из каждых 10 тыс.единиц контента содержали изображение насилия в первом квартале 2018 года, по сравнению с 16 и 19 в предыдущем квартале.

В компании предполагают, что некоторое увеличение могло быть вызвано ростом военной активности в Сирии в январе.

В Facebook говорят, что искусственный интеллект играет все большую роль в выявлении этого контента. Чуть больше 85% из 3,4 млн сообщений, содержащих графическое насилие в первом квартале, были отмечены ИИ прежде, чем пользователи сообщили о них.