Разработанный TrueMedia инструмент помогает журналистам выявлять дипфейки и бороться с ними
Персонализация распространения контента в соцсетях способствует расширению охвата дезинформации и усилению ее воздействия.
С ростом популярности TikTok с его персонализированными лентами «Для вас» (бесконечным потоком контента, который отбирается на основе интересов пользователя и данных об истории просмотров, вовлеченности и местоположении) аналогичные подходы начали внедрять и многие другие платформы, включая Instagram, YouTube и X. Instagram начал показывать пользователям рекомендованные посты еще в 2018 году, а в 2020‑м запустил Reels — формат коротких видео, напоминающий посты в TikTok. В том же году YouTube представил аналогичную функцию Shorts, а в начале 2024 года и платформа X добавила функцию «Для вас».
Седжин Пайк, менеджерка по продукту компании TrueMedia.org, говорит, что эти нововведения трансформировали то, как контент потребляется в соцсетях.
«Теперь не важно, на кого вы подписаны, вы все равно будете получать контент, который система считает подходящим для вас», — говорит она.
В такой цифровой среде ложная информация существует рядом с достоверным контентом, а это создает условия для распространения дипфейков — созданных искусственно гиперреалистичных изображений или видео, цель которых — показать, что кто-то делает или говорит что-то, чего на самом деле не было. В преддверии выборов, прошедших в ноябре 2024 года в США, можно было увидеть дипфейковые видео с речами, которые никогда не произносились, обработанные фото телохранителей Дональда Трампа, улыбающихся после покушения, совершенного на него в июле, и скриншоты новостных статей с ложной информацией о выборах. Эти материалы соседствуют с подлинными новостями, стирая границу между реальностью и вымыслом.
С развитием технологий генеративного ИИ, становящихся все более доступными и простыми в использовании, определять подлинность постов, которые мы видим в соцсетях, становится все сложнее. Помочь справиться с этой проблемой и должен новый инструмент компании TrueMedia, ориентированный на выявление контента, созданного при помощи ИИ. С его помощью можно обнаруживать признаки обработки видео или изображений, опубликованных в соцсетях.
Дипфейки и дезинформация
Эксперт в области искусственного интеллекта Орен Этциони основал TrueMedia в январе 2024 года, потому что его беспокоило влияние ИИ-технологий в год выборов. TrueMedia — это некоммерческая организация, в ее команду входят исследователи, инженеры и социологи. Цель проекта — создание технологий для решения социальных проблем. Седжин Пайк называет такую работу «социотехнологиями».
С ростом доступности этих технологий сгенерированный ИИ контент все чаще становится инструментом политической манипуляции, а связанные с этим опасения журналистов только растут.
По словам Пайк, модели отбора контента, подобные тем, что применяются для формирования ленты «Для вас», способствуют тому, что тщательно созданная дезинформация получает более широкий охват. Алгоритмы выделяют популярный контент, не обращая внимания на то, какие аккаунты распространяют этот контент. Информация в лентах пользователей обычно соответствует их интересам и убеждениям и не проверяется на достоверность — главное, чтобы эти посты собирали лайки и репосты.
В этих обстоятельствах потенциал дипфейков огромен. С их помощью можно изобразить что угодно: от фотографии папы Франциска в дизайнерской одежде до целых выпусков фейковых новостей. И использование этих технологий стремительно растет: в 2023 году было распространено более 500 000 дипфейков. Однако, как бы широко ни был распространен такой контент, журналисты говорят, что революция использования ИИ только начинается.
Выявление дипфейков
Созданный TrueMedia инструмент поможет журналистам определить, использовался ли ИИ для создания видео или фотографии.
Работать с инструментом несложно: пользователи загружают в него ссылку на пост в социальных медиа, и детектор проверяет контент с помощью ряда созданных партнерскими технологическими компаниями программ, умеющих обнаруживать признаки использования ИИ, и определяет вероятность таких манипуляций.
Пайк предупреждает, что инструмент не способен выявить все манипуляции с контентом. Например, он не всегда обнаруживает «чипфейки» — вводящие в заблуждение фото или видео, созданные людьми с помощью программ редактирования, не связанных с искусственным интеллектом. При этом распространители дезинформации также ищут обходные пути: например, накладывают слои дипфейков на достоверный контент, чтобы обойти процесс проверки.
В перспективе по мере развития искусственного интеллекта будут развиваться и инструменты, позволяющие обнаружить измененный с помощью ИИ контент.
«Нам еще далеко до стопроцентной точности, но это один из способов приблизиться к такому результату, — сказала Пайк. — Если люди создают дипфейки с использованием ИИ, мы будем использовать ИИ для их разоблачения».
Сотрудничество с журналистами
Пайк подчеркнула, что, поскольку нет сомнений в том, что объем дезинформации, распространяемой в соцсетях, продолжит расти, для борьбы с ней журналистам не стоит полагаться только на инструменты для выявления обработанного контента: нужно изучать причины и источники дезинформации, а также разбираться в том, какое воздействие она оказывает.
Например, в соцсетях массово распространялись посты о недавних ураганах, включающие созданные искусственным интеллектом фейковые фотографии и видео потопов и разрушений в США. И хотя некоторые пользователи, включая политиков, признавались, что не знают, насколько достоверен контент, который они распространяют, такие посты вызывали у аудитории эмоциональный отклик и использовались для продвижения ложных утверждений о том, как правительство реагирует на катастрофы.
Пайк считает, что для журналистов важнее всего стараться разобраться, почему посты, содержащие неточную информацию, становятся популярными, и противодействовать этим нарративам, не ограничиваясь только проверкой подлинности изображений.
«Недостаточно просто говорить, что вы что-то обнаружили, — сказала она. – Журналисты могут информировать и обучать общественность. И мы должны это делать».