Дипфейки в политике: опыт США и Евросоюза
Дипфейки — это синтетическое медиа (видео, аудио или изображение), созданные с помощью технологий искусственного интеллекта (ИИ), способные правдоподобно имитировать реальных людей.
С 2017 года, когда появились первые ролики на основе искусственного интеллекта, эксперты предупреждали, что дипфейки могут привести к информационному кризису. Имитация речи Барака Обамы в 2018 году была создана как предупреждение о новой угрозе.
С тех пор во всём мире зафиксировано множество случаев применения дипфейков в политической пропаганде — от попыток дискредитировать оппонентов и вмешаться в выборы до информационных операций во время войн. В этой публикации Azbuka media рассматривает наиболее резонансные случаи.
Дипфейки в США: от сатиры до вмешательства в выборы
В апреле 2018 года было создано вирусное видео, на котором бывший президент США Барака Обама обращается к зрителям с неожиданными фразами. На самом деле это оказался дипфейк: лицо Обамы было синтезировано нейросетью, а голос пародировал комик Джордан Пил.
Видео было создано BuzzFeed в сотрудничестве с Пилом как наглядное предупреждение о потенциальных угрозах технологических инноваций. Публикация имела международный резонанс в СМИ, стала тревожным звонком для многих правительств, спровоцировала всплеск интереса к разработкам по определению дипфейков. А в США началось обсуждение законодательных мер против злоупотреблений искусственным интеллектом.
Ещё один интересный пример — так называемые «cheap fake» (примитивный фейк). Прекрасная его иллюстрация — видео «пьяной» Нэнси Пелоси, экс-спикером Палаты представителей Конгресса США от Демократической партии.

Видео с «пьяной Нэнси Пелоси» — пример cheap fake-ов / Скриншот The Washington Post
В мае 2019 года в сети разошёлся ролик, где видная оппонентка нынешнего президента США Дональда Трампа, Нэнси Пелоси, невнятно произносит речь, создавая впечатление, будто она нетрезва или нездорова. Впоследствии выяснилось, что это умышленно замедленная запись выступления Пелоси. Однако ролик собрал миллионы просмотров и даже распространялся известными политиками. Руди Джулиани, личный адвокат Трампа, поделился клипом в Х (бывший Twitter).
Хотя видео было разоблачено, инцидент продемонстрировал, что даже простая манипуляция может создать недоверие к публичным деятелям и контенту. В Конгрессе США этот случай упоминали на слушаниях по дезинформации и дипфейкам, а в Калифорнии вскоре приняли закон, запрещающий распространение ложных клипов о политиках перед выборами (правда, позже его действие приостановили по решению суда).
К 2023 году использование искусственного интеллекта в американской политике вышло на новый уровень. В мае 2023 команда Дональда Трампа опубликовала пародийный ролик, сгенерированный нейросетью: имитировалась аудиоконференция в Х с участием поддельных голосов известных лиц — от Илона Маска до Адольфа Гитлера — которые якобы высмеивают неудачный старт кампании Рона Десантиса. В конце «выступает» и сам дипфейковый Трамп, бранно издеваясь над оппонентом.

Участники дипфейковой аудиоконференции, анализирующей старт предвыборной кампании Рона Десантиса в США / Скриншот Gizmodo
Опубликованное в Х / Instagram Трампа произведение искусственного интеллекта было подано как очевидная шутка, не с целью обмана. Прямого запрета на политическую пародию нет, и видео оставалось доступным, задавая тон агрессивной кампании 2024 года. Вместе с тем, штаб Дональда Трампа этим ходом нормализовал использование дипфейков, вызвав обеспокоенность экспертов и конкурентов. Федеральная избирательная комиссия (FEC) и законодатели стали рассматривать введение ограничений и регулирующих правил по данному поводу. Например, обсуждается обязанность маркировать ИИ-генерированную агитацию.
Обратимся к другому примеру дипфейка, использованного во время избирательной кампании в США. В январе 2024, накануне праймериз в штате Нью-Гэмпшир, ряд избирателей получил звонки с записанным сообщением, звучащим как обращение президента Джо Байдена. В сообщении голос, очень похожий на Байдена, убеждал людей не приходить на предварительное голосование: «Ваш голос важен в ноябре, а не в этот вторник».
Как отличить фейковые видео от настоящих
Конечно, сам Байден ничего подобного не говорил. Это была дипфейк-аудиозапись, созданная злоумышленниками для подавления явки. Кампания Байдена резко осудила случившееся как угрозу демократии. Случай стал одним из первых примеров использования дипфейков для прямого подавления голосования в США, что усилило призывы ввести уголовную ответственность за подобные действия.
Европа: от шуток до клеветы
На исходе предвыборной кампании в Великобритании осенью 2019 года некоммерческая организация Future Advocacy выпустила два коротких пародийных дипфейк-видео: в одном тогдашний премьер-министр Борис Джонсон якобы призывает голосовать за своего соперника Джереми Корбина. В другом — наоборот, Корбин «агитирует» за консерваторов.
Эти шуточные ролики были маркированы как фальшивка и предназначены для повышения медиаграмотности. Авторы хотели показать обществу, что нельзя верить даже своим глазам. В данном случае цель была просветительской, но эпизод получил широкое освещение и продемонстрировал, что технология уже доступна для использования в политических целях в Европе.
Как искусственный интеллект помогает распространять дезинформацию
Один из самых заметных кейсов по влиянию на общество — это фейк о подкупе избирателей в Словакии (2023). За двое суток до парламентских выборов на Facebook появилась аудиозапись, в которой лидер прогрессивной партии Михал Шимечка якобы обсуждает с журналисткой Моникой Тодовой план фальсификации выборов. Политики говорили о покупке голосов у ромского (цыганского) населения — серьёзное обвинение, способное подорвать репутацию лидера.

Лидер прогрессивной партии Словакии Михал Шимечка / Фото Zuzana Gogova, Getty Images
Шимечка и газета Denník N мгновенно заявили, что запись сфабрикована. Эксперты AFP FactCheck выявили признаки генерации речи ИИ.
Хотя компромат быстро опровергли, в оставшиеся до голосования часы он успел распространиться по соцсетям без широкого разоблачения. Запись появилась как раз в период 48-часового предвыборного «молчания», когда опровержения затруднены законом. К тому же правила Facebook тогда запрещали только фейковые видео, а не аудио, что злоумышленники и использовали. Эксперты сходятся во мнении, что подложный компромат мог повлиять на исход выборов, в которых победила популистская партия СМЕР.
Прецедент встревожил ЕС: еврокомиссар Вера Юрова назвала словацкие выборы экзаменом на уязвимость перед новейшими технологиями вмешательства. Сразу после выборов европейские структуры обсудили необходимость закрыть лазейки в политике соцсетей и привлечь к ответственности организаторов вброса. Опыт Словакии также заставил соцсети усилить сотрудничество с фактчекерами и нанять больше модераторов перед последующими европейскими выборами.
