• Актуальнае
  • Медыяправа
  • Карыснае
  • Кірункі і кампаніі
  • Агляды і маніторынгі
  • Рэкамендацыі па бяспецы калег

    Как искусственный интеллект помогает распространять дезинформацию

    Технологии дипфейков активно используются в информационных войнах и пропаганде, направленных на подрыв доверия к политическим фигурам и международным институтам.

    Кампания «Oper­a­tion Under­cut» (операция «Under­cut»), раскрытая аналитической группой Record­ed Future, представляет собой один из самых наглядных примеров, как искусственный интеллект может масштабировать дезинформацию. Недавний доклад Record­ed Future проливает свет на то, как использовались ИИ-технологии для пропагандистских целей в Европе. В данной статье мы представим ключевые идеи исследования.

    Record­ed Future — крупнейшая в мире компания по аналитике угроз. Компания индексирует интернет, включая открытую сеть, дарквеб и технические источники. Штаб-квартира компании находится в Бостоне, а её офисы и сотрудники расположены по всему миру. Record­ed Future работает с более чем 1800 компаниями и государственными организациями в более чем 75 странах.

    Кампания «Operation Undercut» и кто за ней стоит

    С конца 2023 года российская организация Агентство социального проектирования (АСП) начала скоординированную операцию «Under­cut». Её основными целями были срыв западной поддержки Украины, деморализация украинского общества и военных, усиление антиукраинских и антиевропейских настроений, формирование ложной общественной поддержки нарративов, выгодных России.

    Для создания качественного контента, включая видео, статьи и изображения, использовались инструменты искусственного интеллекта (ИИ). В распространении дезинформации участвовали более 500 активных фейковых аккаунтов в Telegram, Face­book, Х (бывший Twit­ter) и других платформах, а также поддельные сайты.

    Анализ Record­ed Future показал высокий уровень координации между аккаунтами, которые публиковали идентичный текстовый и визуальный контент. Посты, как правило, были синхронизированы по времени и соответствовали рабочему графику в России (с 9:00 до 19:00 по московскому времени). Аккаунты не публиковали контент в российские праздники, такие как Рождество (7 января) и День Победы (9 мая), что указывает на их управление из России.

    Хто распаўсюджвае расійскую дэзінфармацыю ў Польшчы?

    При этом контент создавался на нескольких языках, включая русский, английский, французский, немецкий, польский, турецкий и иврит, что говорит о попытке охватить разные аудитории.

    Визуальный стиль некоторых публикаций совпадает с материалами, найденными в утечках документов АСП. Это включает карикатуры, шрифты и общий художественный подход. Объем уникального контента, включая графику, видео и мультимедийные материалы, указывает на наличие профессиональных ресурсов, в том числе дизайнеров, видеоредакторов и иллюстраторов.

    Как искусственный интеллект помогает распространять дезинформацию

    Изображение, размещенное в аккаунте операции «Under­cut» в сети мемов 9gag (слева); изображение, найденное в слитых документах АСП (справа) / Источник Record­ed Future

    Агентство социального проектирования (АСП) — руководительница операции Under­cut — тесно связана с Администрацией Президента России. Контроль и финансирование АСП со стороны российского государства подтверждается утечками документов и расследованиями. Агентство получает прямое финансирование от Администрации Президента через непрозрачные тендеры и фонды. Крупные корпорации, такие как «Газпром» и «Сбербанк», поддерживают АСП через спонсорство и финансирование отдельных инициатив. Также используются теневые схемы — часть средств поступает через офшорные компании и фиктивные проекты, что позволяет скрыть истинные источники и объёмы финансирования.

    Основные нарративы операции «Undercut»

    Операция «Under­cut» была направлена на продвижение нескольких ключевых нарративов, каждый из которых поддерживал стратегические интересы России.

    Подрыв западной поддержки Украины

    АСП сосредоточилось на дискредитации украинского руководства и военной помощи, предоставляемой Западом. Примеры подобного контента включают:

    • Видео, обвиняющие украинское правительство в коррупции, где утверждалось, что украинские чиновники якобы используют иностранную помощь для покупки роскошной недвижимости.
    • Материалы, ставящие под сомнение эффективность западного оружия, такого как танки M1 Abrams.
    • Заявления, что Украина спонсирует террористическую деятельность, включая обвинения в причастности к атаке на Cro­cus City Hall.
    Как искусственный интеллект помогает распространять дезинформацию

    Пример фейковой новости с целью дискредитации украинского руководства / Источник Record­ed Future

    Эскалация конфликта Израиль–Газа

    Тема конфликта использовалась для создания напряженности между Израилем и его западными союзниками:

    • Посты, обвиняющие Израиль в атаках на гуманитарные зоны, например, в Ал-Маваси.
    • Контент, ставящий под сомнение поддержку Израиля со стороны США и Великобритании, в том числе утверждения о сотрудничестве западных спецслужб с ХАМАС.
    Как искусственный интеллект помогает распространять дезинформацию

    Примеры контента операции «Under­cut» по теме израильско-палестинского конфликта / Источник Record­ed Future

    Усиление внутреннего напряжения в ЕС

    • Контент, поддерживающий ультраправые партии, такие как Национальное объединение (Франция) и AfD (Германия), перед выборами в Европарламент 2024 года.
    • Материалы, обвиняющие лидеров ЕС, например, Урсулу фон дер Ляйен, в манипуляции политикой отдельных стран-членов, таких как Польша.

    Как искусственный интеллект помогает распространять дезинформацию

    Примеры контента операции «Under­cut», направленного на рост напряжённости между европейскими странами / Источник Record­ed Future

    Влияние на выборы в США 2024 года

    • Видео, представляющие военную помощь Украине как зависимую от исхода выборов.
    • Утверждения, что администрация Байдена якобы слаба в области внешней политики.
    • Посты, связанные с попытками покушений на политиков, чтобы усилить чувство нестабильности.

    Примеры контента операции «Under­cut» о том, как помощь Украине зависит от исхода выборов в США / Источник Record­ed Future

    Критика Олимпийских игр в Париже

    • Видео и посты, о террористических угрозах в адрес Олимпийских игр.
    • Контент, направленный на дискредитацию организационных усилий Франции, включая вопросы экологии и безопасности.
    Как искусственный интеллект помогает распространять дезинформацию

    Примеры контента об Олимпийских Играх в Париже / Источник Record­ed Future

    Примеры дипфейков

    Одним из ключевых направлений операции «Under­cut» был акцент на дискредитацию Украины как государства и её лидеров. Это достигалось через создание материалов, обвиняющих украинские власти в коррупции, растрате международной помощи и неспособности эффективно использовать выделенные ресурсы.

    Видеоролики с обвинениями украинских должностных лиц в коррупции и использовании иностранной военной помощи для приобретения роскошной недвижимости в основном были сняты на французском и немецком языкак / Источник Record­ed Future

    В рамках дискредитационной кампании появились поддельные видеоролики, где западные лидеры якобы признавали «провал» поддержки Украины. Эти ролики использовали искусственно сгенерированные голоса и обработанные изображения, чтобы создать впечатление правдоподобности.

    Примерами такого контента являются

    • Видео, в котором Эммануэль Макрон якобы говорит о прекращении военной помощи Украине из-за экономического кризиса во Франции.
    • Фальшивое заявление Олафа Шольца, в котором он «признаёт» неэффективность санкций против России.

    Эти дипфейки были распространены через Telegram-каналы и социальные сети, чтобы посеять сомнения среди европейских граждан и политиков относительно дальнейшей поддержки Украины.

    Генерация фейковых новостных сайтов и имитация медиа

    В рамках операции «Under­cut» российская организация Агентство социального проектирования использовала сложную сеть фейковых новостных сайтов для распространения дезинформации. Аналитики Record­ed Future отметили, что злоумышленники не просто создавали отдельные видеоролики или изображения, но также имитировали целые медиа-ресурсы, делая их максимально похожими на авторитетные издания.

    В этом направлении мошенники работали несколькими путями:

    • подделка брендов медиа — фальшивые новостные сайты визуально напоминали известные медиа, такие как BBC, Le Monde, и Die Welt. Доменные имена также были созданы так, чтобы едва отличаться от оригинальных (например, bbc-news.org вместо bbc.com).
    • ИИ-сгенерированный контент — используя языковые модели NLP (обработка естественного языка, например, GPT‑3 и GPT‑4), злоумышленники генерировали тексты статей, которые затем переводились на несколько языков также с помощью ИИ-переводчиков.
    • видеоконтент с дипфейками — на поддельных сайтах размещались ИИ-сгенерированные видеоролики с фальшивыми заявлениями политиков или экспертов.

    Основная цель таких действий — подрыв доверия к традиционным медиа и усиление скептицизма среди аудитории. В докладе Record­ed Future указывается, что несмотря на относительно скромный охват кампании, подобные операции способствуют формированию ложного общественного мнения в долгосрочной перспективе.

    Как Цукерберг отказался от услуг фактчекеров и получил волну фейков о себе

    Фейковые профили и их роль в распространении пропаганды

    Фейковые профили в социальных сетях сегодня являются одним из ключевых инструментов распространения пропаганды. Операция «Under­cut» также активно использовала сеть поддельных аккаунтов для продвижения дезинформации и создания иллюзии общественной поддержки определённых нарративов.

    С помощью генеративных нейросетей (например, Style­GAN) создавались реалистичные изображения лиц несуществующих людей, которые использовались в качестве аватаров. Для текстов и комментариев использовались ИИ-инструменты, такие как GPT‑3, что позволяло имитировать поведение живых пользователей, писать убедительные посты и вести диалоги. Аккаунты регистрировались на платформах X, Face­book и Telegram, после чего начинали активную кампанию по распространению контента.

    В рамках операции «Under­cut» создавались фейковые аккаунты известных медиа / Источник Record­ed Future

    Кроме того, сеть из сотен ботов публиковала и репостила видеоролики и статьи с поддельных новостных сайтов. Фейковые профили оставляли комментарии под статьями крупных европейских СМИ, ставя под сомнение целесообразность военной помощи Украине и обвиняя западные правительства в экономических проблемах. А в российских и международных каналах с большим числом подписчиков распространялись фейковые «экспертные» видео и статьи, подготовленные АСП.

    Сотрудники Record­ed Future и независимые журналисты смогли выявить скоординированную деятельность благодаря анализу паттернов постов и характерных признаков фейковых профилей. Например, многие аккаунты имели минимальную историю активности и использовали подозрительно похожие аватары.

    Заключение

    Операция «Under­cut» стала одной из самых показательных кампаний, демонстрирующих, как искусственный интеллект и современные технологии могут быть использованы для создания и распространения дезинформации. Использование дипфейков, поддельных новостных сайтов и фейковых профилей позволяет пропагандистам создавать масштабные и убедительные информационные атаки.

    Несмотря на ограниченный краткосрочный эффект, подобные операции подрывают доверие к традиционным СМИ, раскалывают общественное мнение и затрудняют проведение скоординированных международных действий. Разоблачение операции «Under­cut» ещё раз подчеркивает необходимость усиления мер по выявлению и противодействию дезинформационным операциям, а также повышения цифровой грамотности пользователей.

    Самыя важныя навіны і матэрыялы ў нашым Тэлеграм-канале — падпісвайцеся!
    @bajmedia
    Найбольш чытанае
    Кожны чацвер мы дасылаем на электронную пошту магчымасці (гранты, вакансіі, конкурсы, стыпендыі), анонсы мерапрыемстваў (лекцыі, дыскусіі, прэзентацыі), а таксама самыя важныя навіны і тэндэнцыі ў свеце медыя.
    Падпісваючыся на рассылку, вы згаджаецеся з Палітыкай канфідэнцыйнасці