Алгоритм ненависти. Как социальные сети приводят к радикализации общества
Исследования показывают, что за последнее десятилетие алгоритмические рекомендательные системы стали почти единолично решать, какой контент пользователь видит, а какой нет.

Илон Маск показывает жест, жест, похожий на нацистский. 2025 год. Фото: Getty Images
Аудиоверсия Apple Podcasts / Spotify Available in English
В мае французский министр цифрового развития предложила запретить в ЕС соцсети для детей до 15 лет, чтобы избавить их от вредного воздействия алгоритмов. Исследования показывают, что за последнее десятилетие алгоритмические рекомендательные системы стали почти единолично решать, какой контент пользователь видит, а какой нет. Угадывая его увлечения, алгоритмы непреднамеренно отдают предпочтение эмоционально заряженному, неоднозначному, сенсационному и радикальному контенту — как правило, именно такому, который постят ультраправые сообщества, политики и движения. Это напрямую влияет на современную политику. Радикальные посты вызывают больше кликов и реакций и лучше учитываются алгоритмами. Но в результате пользователи оказываются в весьма специфических информационных пузырях. Причем, говорят исследователи, это не ошибка, а структурная особенность платформ, созданных для того, чтобы пользователи прокручивали посты, делились ими и прятались в идеологические эхо-камеры.
Джастин Браун-Рэмзи, аспирант-историк Браунского университета, еще старшеклассником на фоне развода родителей в 2015 году стал проводить все больше времени онлайн. Тогда он наткнулся на Джордана Питерсона — доктора психологических наук, правого мыслителя и блогера. С экрана компьютера Питерсон предложил Джастину то, чего ему как раз не хватало: сочувствие, понимание и простые, казалось бы, советы по улучшению жизни. А вместе с этим — рассуждения о «величии западной цивилизации», вреде «культуры отмены» и так далее.
Вскоре алгоритмы YouTube стали заваливать Джастина рекомендациями других правых блогеров и политиков. Через некоторое время, пишет Джастин, весь контент, который он потреблял, состоял из правых и ультраправых блогеров и авторов. В итоге он стал ежедневно участвовать в спорах под видео о движении #MeToo, стараясь опровергнуть «леваков» и активно перенимая у Питерсона приемы полемики.
Вскоре Джастин рассорился с друзьями на почве споров о расизме, правах трансгендерных людей и прочем, еще больше изолируясь в своей онлайн-идеологии. Выбраться из этого пузыря, восстановить социальные связи и перестать радикализироваться ему помогло образование — но так везет не всем.
Кроличьи норы соцсетей
Джастин — пример человека, попавшего на так называемый «радикализующий конвейер». В разных исследованиях и публикациях у этого феномена много названий: например, alt-right pipeline («трубопровод к альтернативным правым») или rabbit hole («кроличья нора»). Суть этих конвейеров в том, что на входе человек с еще не устоявшимися взглядами попадает в водоворот автоматически отобранного контента и в итоге значительно меняет свое мировоззрение. Особенно остро это проявлялось в начале пандемии ковида — так, за первые месяцы количество подписчиков групп антиваксеров выросло на 19%, а сами они вскоре эволюционировали в полноценные ультраправые группы теорий заговора.
Почему алгоритмы действуют именно так и продвигают крайне правый контент? Тот же самый Джастин мог получать рекомендации видео других психологов и коучей для подростков — ведь именно это изначально привлекло его к Питерсону, — но вместо этого алгоритмы постепенно рекомендовали ему все более и более радикальный крайне правый политический контент. Системы рекомендаций созданы так, чтобы удерживать наше внимание и заставлять нас проводить как можно больше времени онлайн. Поэтому на практике они продвигают наиболее эмоционально провокационные или противоречивые материалы — просто потому, что это эффективнее всего. Чаще всего таким контентом оказываются как раз политизированные и радикальные материалы.
Системы рекомендаций созданы так, чтобы удерживать внимание и заставлять проводить как можно больше времени онлайн
Конечно, разные онлайн-платформы демонстрируют разные паттерны, но в итоге, намеренно или нет, способствуют росту именно правого контента.
Внутреннее расследование Twitter, проведенное еще до покупки платформы Илоном Маском, показало, что твиты правых политиков и изданий усиливались в алгоритмических домашних лентах больше, чем твиты левых источников, — в шести из семи исследованных стран, включая США, Великобританию и Канаду. В Канаде, например, перевес в пользу правого контента был четырехкратный.
Исследование Global Witness, проведенное в феврале 2025 года, показало, что домашние ленты («Для тебя» / For you) в TikTok и Twitter (Х) в Германии непропорционально рекомендовали ультраправый контент в преддверии федеральных выборов. В TikTok, например, 78% всех политических рекомендаций касались контента, связанного с AfD, — в то время как реальная поддержка партии не превышала 20%. В Twitter «Альтернативе» было посвящено 63% всего продвигаемого политического контента. Предубеждение на уровне платформ очевидно. И оно, конечно, может влиять на общественное мнение: регулярное столкновение с «радикальным контентом» действительно приводит к поддержке таких же радикальных идей.
В TikTok в Германии 78% всех политических рекомендаций касались контента, связанного с AfD
Еще одно исследование показывает: алгоритмы домашних лент в TikTok не просто выступают как пассивный инструмент, непредвзято отражающий вкусы пользователя. Напротив, авторы утверждают, что функционал «конвейера» встроен в систему на уровне дизайна. Быстрое распространение и вирусность радикального и ультраправого контента на платформе, считают они, не случайность и даже не следствие предпочтений пользователей, а вполне ожидаемый результат работы алгоритмов.
В работе «Алгоритмический экстремизм?» профессор международной безопасности на факультете политики, философии и религии (PPR) Ланкастерского Университета Джо Бертон утверждает, что современные алгоритмы занимают все более важное место в политике. Сегодня они сами активно способствуют поляризации, радикализму и политическому насилию. Бертон считает, что проблема не только в социальных сетях, но и в философии использования ИИ и алгоритмов в принципе.
Алгоритмы вполне сознательно создаются для эксплуатации хорошо изученных слабостей человеческой психики. Социологи и психологи давно утверждают: алгоритмы социальных сетей играют на когнитивных искажениях — особенно «предвзятости подтверждения». То есть на естественном стремлении человека искать и лучше воспринимать информацию, поддерживающую его уже сформированные убеждения.
Поэтому, чтобы поддерживать интерес и вовлеченность, алгоритмы постоянно предлагают пользователям контент, соответствующий их позициям. Пользователи, интересующиеся крайне правыми политиками, будут получать в рекомендациях такой же крайне правый контент, противники вакцин — антиваксерские материалы и так далее. Это часто называют «пузырем фильтров» — искусственно созданным информационным пространством, где все друг с другом согласны, а противоречивую информацию игнорируют.

Иллюстрация: с сайта The Insider
Согласно популярной в психологии «модели групповой поляризации», такие сообщества согласных друг с другом во всем людей в итоге не просто подтверждают и поддерживают свои убеждения, но и укрепляют их, делают их еще более радикальными. Вместе с «радикализующими конвейерами» эффект получается зловещий: алгоритмы все сильнее и надежнее укрепляют пользователей в экстремистских идеологиях.
Невидимые алгоритмы и реальное насилие
Онлайн-экстремизм может перейти в реальность. Массовая стрельба в США в Буффало в 2022 году — один из примеров. В отчете о расследовании генерального прокурора Нью-Йорка утверждается, что алгоритмические рекомендации платформ и задержки с удалением контента способствовали процессу радикализации стрелка — и в итоге насилию. В Великобритании исследование Bellingcat, посвященное сетям влияния ультраправых, показывает, как YouTube и Telegram служат «вербовочными площадками», направляя новичков на экстремистские форумы и в изолированные радикальные сообщества.
Популярный мини-сериал Netflix «Отрочество» посвящен судьбе подростка, попавшего в похожий информационный и культурный пузырь. Исследования подробно описывают механизмы, ведущие от обычного контента к мизогинии и экстремизму. А спецслужбы вроде MI5 вынуждены вести наблюдение за подростками: до 13% людей в группе риска терроризма в Великобритании младше 18 лет.
Сегмент интернета, связанный с этим, получил название «мэносфера». Это условная свободная сеть сообществ, которая объединяет людей, заинтересованных в защите прав мужчин, инцелов, пикап-мастеров — таких как братья Тейт или Арсен Маркарян. Как и другие конвейеры, «мэносфера» использует совершенно безобидные «точки входа» — например, игровые стримы.

Кадр из сериала «Отрочество»
Исследование Портсмутского университета показывает, что зачастую стереотипные и упрощенные представления о гендере (и людях вообще) в играх создают удобную почву для некоторых инфлюенсеров, которую те пытаются использовать для защиты и продвижения явных антифеминистских и женоненавистнических идеологий. Все те же алгоритмы, как и в случае с психологией Питерсона, вместо рекомендаций обычного геймерского контента могут подталкивать лишь косвенно связанные с хобби пользователя материалы «мэносферы».
При этом, хотя видные лица в «мэносфере» могут утверждать, что заинтересованы лишь в благополучии и здоровье мужчин, на деле оказывается наоборот. Так, статья в журнале Child and Adolescent Mental Health предупреждает, что молодые люди, знакомящиеся с подобным контентом, подвергаются повышенному риску депрессии, тревоги и социальной изоляции, поскольку нарратив «мужской виктимности (жертвенности)», популярный у онлайн-женоненавистников, углубляет их чувство отчуждения и обиды.
Молодые люди, знакомящиеся с контентом «мэносферы», подвергаются повышенному риску депрессии и тревоги
Журналисты The Guardian провели эксперимент: они создали пустые аккаунты в Facebook и Instagram, указав только пол и возраст (мужчина, 24 года) — и в течение нескольких недель ленты обеих платформ оказались наводнены сексистскими мемами, «традиционными католическими» постами и гиперсексуальными изображениями женщин.
Алгоритмы могут способствовать и политическому насилию. Расследование The Washington Post на основе внутренней документации Facebook (так называемых Facebook Papers) показало, как алгоритмы компании фактически ускорили подготовку и мобилизацию участников штурма Капитолия 6 января 2021 года. Еще в 2019 году исследователи Facebook обнаружили, что в экспериментальной учетной записи «консервативной матери из Северной Каролины» уже на пятый день в ленте появился конспирологический контент QAnon, демонстрируя ускоряющуюся радикализацию через рекомендательные алгоритмы.
Также Facebook долго не трогал группы Stop the Steal («Остановите воровство голосов» — лозунг сторонников Трампа во время выборов 2020 года), которые стали основным организующим центром протестов. Когда в декабре 2020 года компания все же заблокировала основную группу, десятки аналогичных пабликов мгновенно пережили взрывной рост — из-за автоматических «суперприглашений» по 500 человек каждый, что снова наполнило ленты агрессивными призывами к насилию.
Уловки Трампа
Тем временем бенефициары алгоритмических пузырей тоже ими недовольны. Под лозунгом «воук ИИ» вторая администрация Трампа превратила давние опасения по поводу вредных алгоритмических пузырей в очередное поле культурной войны. В начале 2025 года Конгресс потребовал внутренние документы от Amazon, Google, Meta, Microsoft, OpenAI и других компаний на предмет анализа предвзятости алгоритмов, якобы уделяющих слишком большое внимание инклюзивности и левой повестке.

Дональд Трамп демонстрирует подписанные им указы, сидя в Овальном кабинете. Фото: www.facebook.com/WhiteHouse/
Вице-президент Джей Ди Вэнс на Парижском саммите, посвященном ИИ, публично поклялся, что его администрация будет «следить за тем, чтобы системы ИИ, разработанные в Америке, были свободны от идеологических предубеждений и никогда не ограничивали право наших граждан на свободу слова». Фактически это было его ответом на попытки других стран и корпораций как раз сделать ИИ непредвзятым — но это означало бы избавление от правого крена. Что, очевидно, противоречит интересам Вэнса. Гарантии ответственных алгоритмов и ИИ для Трампа и Вэнса — это угроза, которую они пытаются выставить в качестве опасности для инноваций и свободы.
Гарантии ответственных алгоритмов и ИИ для Трампа и Вэнса — это угроза
Это перекликается с жалобами Илона Маска до покупки им Twitter: якобы социальная сеть ущемляла консерваторов — вопреки всем доказательствам обратного. Разумеется, после покупки им платформы предвзятость в пользу правых и ультраправых лишь увеличилась: сегодня откровенно неонацистский контент продвигается платформой и прекрасно себя чувствует.
В 2018 году Трамп обвинил поисковую систему Google в том, что та «подстроена» против него, и предупредил социальные платформы, что это очень серьезная ситуация, которая должна быть рассмотрена его администрацией. В основе этой стратегии лежит понятие, которое журнал Psychology Today назвал «алгоритмом Трампа»: любые позитивные данные, подтверждающие его успех, принимаются как истина, а любая негативная информация отвергается как fake news.
Почему платформы не меняют алгоритмы? Вовлеченность продает рекламу, а возмущение и радикализация, в свою очередь, увеличивают вовлеченность. Алгоритмы, построенные на времени пребывания на сайте и показателях кликов, благоприятствуют подстрекательскому контенту — чем острее, тем лучше. Вдобавок у того же Илона Маска есть политические стимулы склонять платформы в пользу предпочитаемых им идеологий. Поскольку платформы монетизируют экстремизм, стимулы для реформ исчезают: зачем вкладывать деньги в более строгую модерацию, если экстремистский контент приносит прибыль?
Что дальше?
Закон о цифровых услугах (Digital Services Act) в ЕС требует от платформ раскрывать, как работают их алгоритмы, и проводить независимые аудиты. Он вступил в полную силу в феврале 2024 года. Критики считают, что он все еще недостаточно прозрачен, сторонники более жесткого регулирования предлагают использовать «этикетки» для алгоритмов, раскрывающие конечным пользователям их ключевые параметры. Кто-то же, наоборот, настаивает, что закон ограничивает свободу платформ и пользователей.
Однако, как подчеркивается в докладе генерального прокурора США, правовые реформы не успевают за быстро развивающимися системами искусственного интеллекта.
Чтобы повернуть курс вспять, необходима коллективная воля. Платформы должны изменить стимулы, исследователи должны разработать надежные системы аудита, а политики — гибкие правила, которые заставят технологические компании нести ответственность. Но самое главное — пользователям необходимо повысить уровень грамотности и осознать, как алгоритмы формируют их информационный рацион. Понимание скрытого кода цифровых каналов — первый важный шаг.
