• Актуальнае
  • Медыяправа
  • Карыснае
  • Кірункі і кампаніі
  • Агляды і маніторынгі
  • Рэкамендацыі па бяспецы калег

    Дипфейки в политике: опыт США и Евросоюза

    Дипфейки — это синтетическое медиа (видео, аудио или изображение), созданные с помощью технологий искусственного интеллекта (ИИ), способные правдоподобно имитировать реальных людей​.

    Дипфейки в политике: опыт США и Евросоюза

    С 2017 года, когда появились первые ролики на основе искусственного интеллекта, эксперты предупреждали, что дипфейки могут привести к информационному кризису. Имитация речи Барака Обамы в 2018 году была создана как предупреждение о новой угрозе​.

    С тех пор во всём мире зафиксировано множество случаев применения дипфейков в политической пропаганде — от попыток дискредитировать оппонентов и вмешаться в выборы до информационных операций во время войн. В этой публикации Azbu­ka media рассматривает наиболее резонансные случаи.

    Дипфейки в США: от сатиры до вмешательства в выборы

    В апреле 2018 года было создано вирусное видео, на котором бывший президент США Барака Обама обращается к зрителям с неожиданными фразами. На самом деле это оказался дипфейк: лицо Обамы было синтезировано нейросетью, а голос пародировал комик Джордан Пил.

    Видео было создано Buz­zFeed в сотрудничестве с Пилом как наглядное предупреждение о потенциальных угрозах технологических инноваций​. Публикация имела международный резонанс в СМИ, стала тревожным звонком для многих правительств, спровоцировала всплеск интереса к разработкам по определению дипфейков. А в США началось обсуждение законодательных мер против злоупотреблений искусственным интеллектом.

    Ещё один интересный пример — так называемые «cheap fake» (примитивный фейк). Прекрасная его иллюстрация — видео «пьяной» Нэнси Пелоси, экс-спикером Палаты представителей Конгресса США от Демократической партии.

    Дипфейки в политике: опыт США и Евросоюза

    Видео с «пьяной Нэнси Пелоси» — пример cheap fake-ов / Скриншот The Wash­ing­ton Post

    В мае 2019 года в сети разошёлся ролик, где видная оппонентка нынешнего президента США Дональда Трампа, Нэнси Пелоси, невнятно произносит речь, создавая впечатление, будто она нетрезва или нездорова​. Впоследствии выяснилось, что это умышленно замедленная запись выступления Пелоси. Однако ролик собрал миллионы просмотров и даже распространялся известными политиками. Руди Джулиани, личный адвокат Трампа, поделился клипом в Х (бывший Twit­ter).

    Хотя видео было разоблачено, инцидент продемонстрировал, что даже простая манипуляция может создать недоверие к публичным деятелям и контенту. В Конгрессе США этот случай упоминали на слушаниях по дезинформации и дипфейкам​, а в Калифорнии вскоре приняли закон, запрещающий распространение ложных клипов о политиках перед выборами (правда, позже его действие приостановили по решению суда).​

    К 2023 году использование искусственного интеллекта в американской политике вышло на новый уровень. В мае 2023 команда Дональда Трампа опубликовала пародийный ролик, сгенерированный нейросетью: имитировалась аудиоконференция в Х с участием поддельных голосов известных лиц — от Илона Маска до Адольфа Гитлера — которые якобы высмеивают неудачный старт кампании Рона Десантиса​. В конце «выступает» и сам дипфейковый Трамп, бранно издеваясь над оппонентом​.

    Дипфейки в политике: опыт США и Евросоюза

    Участники дипфейковой аудиоконференции, анализирующей старт предвыборной кампании Рона Десантиса в США / Скриншот Giz­mo­do

    Опубликованное в Х / Insta­gram Трампа произведение искусственного интеллекта было подано как очевидная шутка, не с целью обмана​. Прямого запрета на политическую пародию нет, и видео оставалось доступным, задавая тон агрессивной кампании 2024 года. ​Вместе с тем, штаб Дональда Трампа этим ходом нормализовал использование дипфейков, вызвав обеспокоенность экспертов и конкурентов. Федеральная избирательная комиссия (FEC) и законодатели стали рассматривать введение ограничений и регулирующих правил по данному поводу. Например, обсуждается обязанность маркировать ИИ-генерированную агитацию​.

    Обратимся к другому примеру дипфейка, использованного во время избирательной кампании в США. В январе 2024, накануне праймериз в штате Нью-Гэмпшир, ряд избирателей получил звонки с записанным сообщением, звучащим как обращение президента Джо Байдена. В сообщении голос, очень похожий на Байдена, убеждал людей не приходить на предварительное голосование: «Ваш голос важен в ноябре, а не в этот вторник»​.

    Как отличить фейковые видео от настоящих

    Конечно, сам Байден ничего подобного не говорил. Это была дипфейк-аудиозапись, созданная злоумышленниками для подавления явки. Кампания Байдена резко осудила случившееся как угрозу демократии​. Случай стал одним из первых примеров использования дипфейков для прямого подавления голосования в США, что усилило призывы ввести уголовную ответственность за подобные действия.

    Европа: от шуток до клеветы

    На исходе предвыборной кампании в Великобритании осенью 2019 года некоммерческая организация Future Advo­ca­cy выпустила два коротких пародийных дипфейк-видео: в одном тогдашний премьер-министр Борис Джонсон якобы призывает голосовать за своего соперника Джереми Корбина. В другом — наоборот, Корбин «агитирует» за консерваторов​.

    Эти шуточные ролики были маркированы как фальшивка и предназначены для повышения медиаграмотности. Авторы хотели показать обществу, что нельзя верить даже своим глазам. В данном случае цель была просветительской, но эпизод получил широкое освещение и продемонстрировал, что технология уже доступна для использования в политических целях в Европе.

    Как искусственный интеллект помогает распространять дезинформацию

    Один из самых заметных кейсов по влиянию на общество — это фейк о подкупе избирателей в Словакии (2023). За двое суток до парламентских выборов на Face­book появилась аудиозапись, в которой лидер прогрессивной партии Михал Шимечка якобы обсуждает с журналисткой Моникой Тодовой план фальсификации выборов​. Политики говорили о покупке голосов у ромского (цыганского) населения — серьёзное обвинение, способное подорвать репутацию лидера.

    Дипфейки в политике: опыт США и Евросоюза

    Лидер прогрессивной партии Словакии Михал Шимечка / Фото Zuzana Gogo­va, Get­ty Images

    Шимечка и газета Den­ník N мгновенно заявили, что запись сфабрикована​. Эксперты AFP FactCheck выявили признаки генерации речи ИИ​.

    Хотя компромат быстро опровергли, в оставшиеся до голосования часы он успел распространиться по соцсетям без широкого разоблачения. Запись появилась как раз в период 48-часового предвыборного «молчания», когда опровержения затруднены законом. К тому же правила Face­book тогда запрещали только фейковые видео, а не аудио, что злоумышленники и использовали​. Эксперты сходятся во мнении, что подложный компромат мог повлиять на исход выборов, в которых победила популистская партия СМЕР.

    Прецедент встревожил ЕС: еврокомиссар Вера Юрова назвала словацкие выборы экзаменом на уязвимость перед новейшими технологиями вмешательства​. Сразу после выборов европейские структуры обсудили необходимость закрыть лазейки в политике соцсетей и привлечь к ответственности организаторов вброса. Опыт Словакии также заставил соцсети усилить сотрудничество с фактчекерами и нанять больше модераторов перед последующими европейскими выборами.​

    Самыя важныя навіны і матэрыялы ў нашым Тэлеграм-канале — падпісвайцеся!
    @bajmedia
    Найбольш чытанае
    Кожны чацвер мы дасылаем на электронную пошту магчымасці (гранты, вакансіі, конкурсы, стыпендыі), анонсы мерапрыемстваў (лекцыі, дыскусіі, прэзентацыі), а таксама самыя важныя навіны і тэндэнцыі ў свеце медыя.
    Падпісваючыся на рассылку, вы згаджаецеся з Палітыкай канфідэнцыйнасці