Алгоритмы соцсетей не справляются с поддельным и вводящим в заблуждение контентом
По мере того, как в Афганистане разворачивается кризис, становится ясно, что алгоритмы социальных сетей неспособны противостоять большому количеству вводящего в заблуждение или поддельного контента.
Праткика показывает, что владельцы платформ по-прежнему плохо разбираются в этом вопросе.
Когда контент удаляется, его следует либо заблокировать от повторной загрузки, либо, по крайней мере, пометить как потенциально вводящий в заблуждение при отображении для других пользователей. Очень часто другой аккаунт — настоящий или фейковый — просто репостит удаленный контент, чтобы он мог распространяться без ограничений.
Распрастранение прекращается лишь тогда, когда огромный объем контента, который обрабатывается модераторами на основе искусственного интеллекта, такими как обнаружение объектов и распознавание видео, отмечается пользователями и в конечном итоге просматривается реальным человеком, часто спустя много времени после того, как он был просмотрен многими пользователями. Нередко модераторы нуждаются в психотерапии после того, как они подвергаются просмотру столь большого количества самых худших проявлений человечества, и сводят на нет цель автоматизации в сокращении задач, которые опасны или трудоемки для людей, выполняемых в одиночку.
Технология Deepfakes в настоящее время представляют собой самую большую проблему для платформ социальных сетей. Со временем алгоритмы можно обучить обнаруживать маркеры, указывающие на изменение содержимого. Microsoft разрабатывает такую систему под названием Video Authenticator, которая была создана с использованием общедоступного набора данных из Face Forensic ++ и была протестирована на наборе данных DeepFake Detection Challenge:
Однако верно и то, что все более совершенные дипфейки делают маркеры еще более незаметными. Еще в феврале исследователи из Калифорнийского университета в Сан-Диего обнаружили, что существующие системы, предназначенные для противодействия растущему распространению дипфейков, можно обмануть.
Еще одна проблема с дипфейками — их устойчивость к невозможности повторной загрузки. Увеличение вычислительной мощности означает, что внесение небольших изменений не займет много времени, поэтому «новый» контент ускользнет от алгоритмической блокировки.
В отчете Центра бизнеса и прав человека Нью-Йоркского университета им. Стерна исследователи выделили различные способы использования дезинформации для воздействия на демократические процессы. Один из способов — использовать дипфейк-видео во время выборов, чтобы «изобразить кандидатов, говорящих и делающих то, чего они никогда не говорили и не делали».
В отчете также прогнозируется, что Иран и Китай присоединятся к России в качестве основных источников дезинформации в западных демократиях и что коммерческие фирмы, базирующиеся в США и за рубежом, будут наняты для распространения дезинформации. В мае выяснилось, что французские и немецкие ютуберы, блоггеры и влиятельные лица получили деньги от якобы находящегося в Великобритании PR-агентства с российскими связями, чтобы они распрастранили дезинформацию среди своих подписчиков о том, что вакцина Pfizer/BioNTech имеет высокий уровень смертности. Влиятельных лиц попросили сказать своим подписчикам, что «основные средства массовой информации игнорируют эту тему».
Признавая проблемы, такие компании, как Facebook, YouTube и Twitter, должны иметь в своем распоряжении ресурсы, чтобы гораздо лучше справляться с вводящим в заблуждение контентом, чем они это делают сейчас. Можно проявить некоторую снисходительность к дипфейкам как относительно новой угрозе, но некоторые вещи на данный момент непростительны.
Хотя трудно поверить в заявления талибов о том, что они будут относиться к женщинам и детям намного лучше, чем предполагает их доктрина, всегда важно, чтобы факты и подлинные материалы были отделены от известной доли вымысла и искаженного содержания, независимо от проблемы или личного восприятия. Сети четко осознают проблемный контент и продолжают разрешать его распространение — часто совершенно беспрепятственно.
Изображение корреспондента CNN Омара Хименеса, стоящего перед взлетом вертолета в Афганистане, вместе с заголовком новостей «Насильственная, но в основном мирная передача власти» было размещено в различных социальных сетях в минувшие выходные. Reuters и Politifact проверили изображение и пришли к выводу, что оно было изменено в цифровом виде.
Изображение Хименеса было взято из его освещения протестов 2020 года в Кеноша, штат Висконсин, после стрельбы полицией рядом с надписью «Горячие, но в основном мирные протесты после полицейской стрельбы», которая подверглась критике со стороны некоторых консерваторов. Подделанное изображение явно предназначено для сатиры, но комментарии показывают, что многие люди посчитали это правдой.
В Facebook, к его чести, изображение теперь помечено как «Измененное фото», где четко указано, что «Независимые фактчекеры считают, что эта информация может ввести людей в заблуждение». На момент написания этой статьи в Twitter изображение все еще публикуется без какого-либо ярлыка. Заголовок также используется в качестве заголовка в видео YouTube с некоторыми другими кадрами, но платформа также не пометила его и утверждает, что это не нарушает их правила.
Платформы социальных сетей не могут стать полицией мыслей, но там, где алгоритмы обнаруживают контент вводящий в заблуждение и создающий манипуляции – или, где есть явные доказательства того, что даже реальный материал используется для введения в заблуждение — бесспорно, необходимо принять меры для блокировки подобного контента.
По материалам: Artificialintelligence-news