
По данным международной ассоциации по фактчекингу, с началом конфликта в Тыграе, посты, разжигающие этническое насилие, оставались в сети месяцами.
Алгоритмы социальной сети Facebook могут способствовать распространению ненависти и эскалации насилия в ряде африканских стран. Об этом говорится в материале GFCN с комментариями эксперта организации, аналитика в области геополитики и кибербезопасности Анны Андерсен.
В статье рассматриваются события в эфиопском регионе Тыграй, где в 2020 году обострился вооружённый конфликт. По данным авторов, публикации с призывами к насилию на этнической почве продолжали оставаться в социальной сети длительное время, несмотря на нарушения правил платформы.
В материале приводится пример, связанный с убийством ювелира-тыграйца в городе Гондэр, после того как в соцсети распространялись призывы «очистить» район от представителей определённой этнической группы. Отмечается, что в последующих судебных разбирательствах критиковалась эффективность модерации Facebook в регионе.
По оценке Анны Андерсен, одной из ключевых проблем является недостаток модераторов, владеющих местными языками, включая амхарский, оромо и тигринья, а также зависимость платформы от автоматизированных систем, обученных преимущественно на англоязычных данных.
Эксперт утверждает, что такие алгоритмы не всегда способны корректно распознавать контекст и скрытые смысловые конструкции, которые могут содержать призывы к насилию.
«Разрыв между буквальным и прагматическим смыслом остаётся для машин практически невидимым», — отмечается в материале.
Авторы исследования приходят к выводу, что современные модели модерации цифровых платформ сталкиваются с серьёзными ограничениями в многоязычных и культурно сложных регионах, что может приводить как к пропуску опасного контента, так и к неадекватной оценке сообщений пользователей.






