Как искусственный интеллект помогает распространять дезинформацию
Технологии дипфейков активно используются в информационных войнах и пропаганде, направленных на подрыв доверия к политическим фигурам и международным институтам.
Кампания «Operation Undercut» (операция «Undercut»), раскрытая аналитической группой Recorded Future, представляет собой один из самых наглядных примеров, как искусственный интеллект может масштабировать дезинформацию. Недавний доклад Recorded Future проливает свет на то, как использовались ИИ-технологии для пропагандистских целей в Европе. В данной статье мы представим ключевые идеи исследования.
Recorded Future — крупнейшая в мире компания по аналитике угроз. Компания индексирует интернет, включая открытую сеть, дарквеб и технические источники. Штаб-квартира компании находится в Бостоне, а её офисы и сотрудники расположены по всему миру. Recorded Future работает с более чем 1800 компаниями и государственными организациями в более чем 75 странах.
Кампания «Operation Undercut» и кто за ней стоит
С конца 2023 года российская организация Агентство социального проектирования (АСП) начала скоординированную операцию «Undercut». Её основными целями были срыв западной поддержки Украины, деморализация украинского общества и военных, усиление антиукраинских и антиевропейских настроений, формирование ложной общественной поддержки нарративов, выгодных России.
Для создания качественного контента, включая видео, статьи и изображения, использовались инструменты искусственного интеллекта (ИИ). В распространении дезинформации участвовали более 500 активных фейковых аккаунтов в Telegram, Facebook, Х (бывший Twitter) и других платформах, а также поддельные сайты.
Анализ Recorded Future показал высокий уровень координации между аккаунтами, которые публиковали идентичный текстовый и визуальный контент. Посты, как правило, были синхронизированы по времени и соответствовали рабочему графику в России (с 9:00 до 19:00 по московскому времени). Аккаунты не публиковали контент в российские праздники, такие как Рождество (7 января) и День Победы (9 мая), что указывает на их управление из России.
Хто распаўсюджвае расійскую дэзінфармацыю ў Польшчы?
При этом контент создавался на нескольких языках, включая русский, английский, французский, немецкий, польский, турецкий и иврит, что говорит о попытке охватить разные аудитории.
Визуальный стиль некоторых публикаций совпадает с материалами, найденными в утечках документов АСП. Это включает карикатуры, шрифты и общий художественный подход. Объем уникального контента, включая графику, видео и мультимедийные материалы, указывает на наличие профессиональных ресурсов, в том числе дизайнеров, видеоредакторов и иллюстраторов.

Изображение, размещенное в аккаунте операции «Undercut» в сети мемов 9gag (слева); изображение, найденное в слитых документах АСП (справа) / Источник Recorded Future
Агентство социального проектирования (АСП) — руководительница операции Undercut — тесно связана с Администрацией Президента России. Контроль и финансирование АСП со стороны российского государства подтверждается утечками документов и расследованиями. Агентство получает прямое финансирование от Администрации Президента через непрозрачные тендеры и фонды. Крупные корпорации, такие как «Газпром» и «Сбербанк», поддерживают АСП через спонсорство и финансирование отдельных инициатив. Также используются теневые схемы — часть средств поступает через офшорные компании и фиктивные проекты, что позволяет скрыть истинные источники и объёмы финансирования.
Основные нарративы операции «Undercut»
Операция «Undercut» была направлена на продвижение нескольких ключевых нарративов, каждый из которых поддерживал стратегические интересы России.
Подрыв западной поддержки Украины
АСП сосредоточилось на дискредитации украинского руководства и военной помощи, предоставляемой Западом. Примеры подобного контента включают:
- Видео, обвиняющие украинское правительство в коррупции, где утверждалось, что украинские чиновники якобы используют иностранную помощь для покупки роскошной недвижимости.
- Материалы, ставящие под сомнение эффективность западного оружия, такого как танки M1 Abrams.
- Заявления, что Украина спонсирует террористическую деятельность, включая обвинения в причастности к атаке на Crocus City Hall.

Пример фейковой новости с целью дискредитации украинского руководства / Источник Recorded Future
Эскалация конфликта Израиль–Газа
Тема конфликта использовалась для создания напряженности между Израилем и его западными союзниками:
- Посты, обвиняющие Израиль в атаках на гуманитарные зоны, например, в Ал-Маваси.
- Контент, ставящий под сомнение поддержку Израиля со стороны США и Великобритании, в том числе утверждения о сотрудничестве западных спецслужб с ХАМАС.

Примеры контента операции «Undercut» по теме израильско-палестинского конфликта / Источник Recorded Future
Усиление внутреннего напряжения в ЕС
- Контент, поддерживающий ультраправые партии, такие как Национальное объединение (Франция) и AfD (Германия), перед выборами в Европарламент 2024 года.
- Материалы, обвиняющие лидеров ЕС, например, Урсулу фон дер Ляйен, в манипуляции политикой отдельных стран-членов, таких как Польша.

Примеры контента операции «Undercut», направленного на рост напряжённости между европейскими странами / Источник Recorded Future
Влияние на выборы в США 2024 года
- Видео, представляющие военную помощь Украине как зависимую от исхода выборов.
- Утверждения, что администрация Байдена якобы слаба в области внешней политики.
- Посты, связанные с попытками покушений на политиков, чтобы усилить чувство нестабильности.

Примеры контента операции «Undercut» о том, как помощь Украине зависит от исхода выборов в США / Источник Recorded Future
Критика Олимпийских игр в Париже
- Видео и посты, о террористических угрозах в адрес Олимпийских игр.
- Контент, направленный на дискредитацию организационных усилий Франции, включая вопросы экологии и безопасности.

Примеры контента об Олимпийских Играх в Париже / Источник Recorded Future
Примеры дипфейков
Одним из ключевых направлений операции «Undercut» был акцент на дискредитацию Украины как государства и её лидеров. Это достигалось через создание материалов, обвиняющих украинские власти в коррупции, растрате международной помощи и неспособности эффективно использовать выделенные ресурсы.

Видеоролики с обвинениями украинских должностных лиц в коррупции и использовании иностранной военной помощи для приобретения роскошной недвижимости в основном были сняты на французском и немецком языкак / Источник Recorded Future
В рамках дискредитационной кампании появились поддельные видеоролики, где западные лидеры якобы признавали «провал» поддержки Украины. Эти ролики использовали искусственно сгенерированные голоса и обработанные изображения, чтобы создать впечатление правдоподобности.
Примерами такого контента являются
- Видео, в котором Эммануэль Макрон якобы говорит о прекращении военной помощи Украине из-за экономического кризиса во Франции.
- Фальшивое заявление Олафа Шольца, в котором он «признаёт» неэффективность санкций против России.
Эти дипфейки были распространены через Telegram-каналы и социальные сети, чтобы посеять сомнения среди европейских граждан и политиков относительно дальнейшей поддержки Украины.
Генерация фейковых новостных сайтов и имитация медиа
В рамках операции «Undercut» российская организация Агентство социального проектирования использовала сложную сеть фейковых новостных сайтов для распространения дезинформации. Аналитики Recorded Future отметили, что злоумышленники не просто создавали отдельные видеоролики или изображения, но также имитировали целые медиа-ресурсы, делая их максимально похожими на авторитетные издания.
В этом направлении мошенники работали несколькими путями:
- подделка брендов медиа — фальшивые новостные сайты визуально напоминали известные медиа, такие как BBC, Le Monde, и Die Welt. Доменные имена также были созданы так, чтобы едва отличаться от оригинальных (например, bbc-news.org вместо bbc.com).
- ИИ-сгенерированный контент — используя языковые модели NLP (обработка естественного языка, например, GPT‑3 и GPT‑4), злоумышленники генерировали тексты статей, которые затем переводились на несколько языков также с помощью ИИ-переводчиков.
- видеоконтент с дипфейками — на поддельных сайтах размещались ИИ-сгенерированные видеоролики с фальшивыми заявлениями политиков или экспертов.
Основная цель таких действий — подрыв доверия к традиционным медиа и усиление скептицизма среди аудитории. В докладе Recorded Future указывается, что несмотря на относительно скромный охват кампании, подобные операции способствуют формированию ложного общественного мнения в долгосрочной перспективе.
Как Цукерберг отказался от услуг фактчекеров и получил волну фейков о себе
Фейковые профили и их роль в распространении пропаганды
Фейковые профили в социальных сетях сегодня являются одним из ключевых инструментов распространения пропаганды. Операция «Undercut» также активно использовала сеть поддельных аккаунтов для продвижения дезинформации и создания иллюзии общественной поддержки определённых нарративов.
С помощью генеративных нейросетей (например, StyleGAN) создавались реалистичные изображения лиц несуществующих людей, которые использовались в качестве аватаров. Для текстов и комментариев использовались ИИ-инструменты, такие как GPT‑3, что позволяло имитировать поведение живых пользователей, писать убедительные посты и вести диалоги. Аккаунты регистрировались на платформах X, Facebook и Telegram, после чего начинали активную кампанию по распространению контента.

В рамках операции «Undercut» создавались фейковые аккаунты известных медиа / Источник Recorded Future
Кроме того, сеть из сотен ботов публиковала и репостила видеоролики и статьи с поддельных новостных сайтов. Фейковые профили оставляли комментарии под статьями крупных европейских СМИ, ставя под сомнение целесообразность военной помощи Украине и обвиняя западные правительства в экономических проблемах. А в российских и международных каналах с большим числом подписчиков распространялись фейковые «экспертные» видео и статьи, подготовленные АСП.
Сотрудники Recorded Future и независимые журналисты смогли выявить скоординированную деятельность благодаря анализу паттернов постов и характерных признаков фейковых профилей. Например, многие аккаунты имели минимальную историю активности и использовали подозрительно похожие аватары.
Заключение
Операция «Undercut» стала одной из самых показательных кампаний, демонстрирующих, как искусственный интеллект и современные технологии могут быть использованы для создания и распространения дезинформации. Использование дипфейков, поддельных новостных сайтов и фейковых профилей позволяет пропагандистам создавать масштабные и убедительные информационные атаки.
Несмотря на ограниченный краткосрочный эффект, подобные операции подрывают доверие к традиционным СМИ, раскалывают общественное мнение и затрудняют проведение скоординированных международных действий. Разоблачение операции «Undercut» ещё раз подчеркивает необходимость усиления мер по выявлению и противодействию дезинформационным операциям, а также повышения цифровой грамотности пользователей.
