Паром Tallink неожиданно был классифицирован в соцсетях как детское порно

Copy
Фото: Dmitri T / Shutterstock

Если вы недавно искали информацию или фотографию парома Tallink Megastar в Facebook или Instagram, то скорей всего, на вашем экране появилось предупреждение о том, что ваш поиск связан с детским сексуальным насилием.

Руководитель по коммуникациям Tallink Silja Марика Нёйд впервые услышала об этом от Helsingin Sanomat и не смогла дать точного ответа, как и почему название судна Megastar было заблокировано.

Однако запрет касается только корабля Megastar, а не других кораблей Tallink или аккаунтов компании в социальных сетях. По словам Нёйда, компания обратилась к Meta, владеющей Instagram и Facebook, за разъяснениями по этому поводу, но ответа пока не получила.

Знакомая с алгоритмами социальных сетей, Салла-Маария Лааксонен из Центра исследований потребителей Хельсинкского университета, считает, что слово «Megastar», вероятно, вошло в список слов, связанных с насилием над детьми, благодаря сообщениям пользователей.

По мнению Лааксонен, пример Tallink Megastar хорошо иллюстрирует, как компании и пользователи зависят от крупных социальных сетей, но имеют лишь несколько способов влиять на алгоритмы.

По словам Лааксонен, метасервисы используют автоматическую фильтрацию контента, но они не очень хорошо понимают различные контексты и языковые регионы.

«Иногда это может привести к странным ситуациям, когда, например, учетная запись пользователя полностью замораживается за нарушение правил использования», – говорит Салла-Маария.

Например, Facebook удалил из своего сервиса страницы Финской ассоциации псориаза из-за фотографии. На обложке была изображена женщина, больная псориазом, в купальнике. По данным Facebook, изображение противоречило их правилам, поскольку содержало слишком много обнаженной натуры и сексуальности.

Ассоциация псориаза – это организация пациентов, миссией которой является предоставление информации и поддержка пациентов с псориазом. Псориаз – это хроническое воспалительное заболевание, вызывающее симптомы на коже и суставах.

Однако недавно Instagram подвергся критике из-за того, насколько плохо сервис реагирует на контент, содержащий сексуальное насилие над детьми.

Расследование, проведенное The Wall Street Journal (WSJ) и исследователями из Стэнфордского и Амхерстского университетов в Массачусетсе, показало, что Instagram не может обнаружить и удалить подобный контент со своей платформы. Скорее, алгоритмы способствовали обнаружению такого контента.

При поиске в Instagram по ключевым словам, относящимся к детской порнографии, пользователю выдавалось предупреждение о том, что результаты поиска могут содержать изображения сексуального насилия над детьми. После этого есть возможность выбрать один из двух вариантов: «обратиться за помощью» или «все равно показать результат».

После расследования WSJ Instagram удалил функцию, позволяющую просматривать фотографии.

Невозможно сразу дать ответ на вопрос, почему Megastar входит в число.

Наверх