ИИ в редакции: между революционным потенциалом и барьерами на практике
Искусственный интеллект обещает медиа революционные изменения, но его внедрение полно вызовов: от финансовых и кадровых до этических и недостатка понимания самого ИИ. Эти актуальные темы репортеры и медиаменеджеры обсудили в Вильнюсе на встрече, организованной Белорусской ассоциацией журналистов. Они также поделились опытом и идеями по адаптации к новой реальности.

Иллюстрация: Freepik
Финансовый барьер: когда инновации не по карману
Первая и, пожалуй, самая ощутимая проблема, с которой сталкиваются многие редакции, особенно независимые и небольшие — это банальная нехватка средств.
«Многие полезные ИИ-инструменты и продвинутые версии популярных моделей, такие как ChatGPT‑4, требуют платной подписки», — отметила одна из участниц встречи. Стоимость в 20 евро в месяц за одного пользователя может показаться незначительной для крупной корпорации, но для редакции с ограниченным бюджетом, где таких подписок может потребоваться несколько, это уже существенные расходы.
Журналисты обсуждали, что бесплатные версии ИИ часто имеют ограничения по функционалу, скорости работы или объему обрабатываемых данных, что снижает их эффективность для профессиональных задач. В условиях, когда медиа и так борются за выживание, инвестиции в дорогие ИИ-решения отходят на второй план, даже если их потенциальная польза очевидна.
Кадровый голод: нехватка специалистов и навыков промт-инжиниринга
Вторая серьезная группа проблем связана с человеческим фактором. Даже при наличии доступа к ИИ-инструментам, многие редакции сталкиваются с отсутствием специалистов, умеющих грамотно и эффективно ими пользоваться.
«Просто дать журналисту доступ к нейросети недостаточно. Нужно обучить его правильно формулировать запросы, так называемые промты, чтобы получать релевантные и качественные результаты», — подчеркнул редактор одного из СМИ.
Эффективное использование ИИ требует специфических навыков промт-инжиниринга, понимания логики работы моделей и умения критически оценивать сгенерированный контент.
Как отмечали участники встречи, для многих журналистов старшего поколения или тех, кто привык к традиционным методам работы, освоение новых технологий становится настоящим вызовом. Переобучение требует времени и ресурсов, которых также может не хватать. Кроме того, существует определенный психологический барьер — страх перед новым и непонятным, опасения, что ИИ может заменить журналистов, а не стать их помощником.

Фото: Depositphotos
Зачем нам ИИ? Непонимание потенциала и преимуществ
Третья группа проблем заключается в том, что часть медийного сообщества до сих пор не до конца осознает, какую именно пользу искусственный интеллект может принести их работе. Многие воспринимают ИИ исключительно как инструмент для написания простых текстов или рерайта, не видя его потенциала в более сложных задачах.
Между тем, как подчеркивали участники встречи, преимущества ИИ могут быть весьма значительными. С помощью грамотно составленных промтов можно научить нейросеть сохранять стиль и тональность конкретного издания, а также форматировать тексты в соответствии с редакционными стандартами.
ИИ способен молниеносно выполнять рутинные задачи, которые раньше отнимали у журналистов много времени: транскрибация интервью, создание кратких саммари из больших объемов информации, перевод текстов, генерация идей для заголовков или постов в социальных сетях.
ШІ ў медыя і не толькі: ад журналісцкіх інструментаў да агенцкіх сістэм
«Искусственный интеллект очень быстро и качественно упрощает ту работу, которую можно и нужно ему делегировать, освобождая время журналиста для более творческих и аналитических задач,» — поделилась опытом журналистка.
Юридические и этические аспекты: минное поле для редакций
Особое внимание на встрече было уделено юридическим и этическим вызовам, связанным с использованием ИИ в журналистике. Эти вопросы становятся все более актуальными по мере углубления интеграции технологий в редакционные процессы.
Одним из главных рисков является приватность данных. При использовании некоторых ИИ-сервисов существует вероятность, что введенная информация может быть использована для дальнейшего обучения модели или сохранена на серверах компании-разработчика. Хотя, например, платный ChatGPT за 20 евро предлагает настройки, позволяющие ограничить использование данных пользователя, не все платформы обеспечивают такой уровень контроля.
Другой важный аспект — авторское право. Журналисты обсуждали, кому принадлежат права на текст, сгенерированный ИИ. В некоторых случаях права могут оставаться за компанией-создателем нейросети.
«Необходимо внимательно изучать условия использования каждого инструмента. К счастью, такие гиганты, как OpenAI, обычно не претендуют на авторство контента, созданного их пользователями,» — отметил один из экспертов. Тем не менее этот вопрос требует постоянного внимания.
Ключевой этической дилеммой стала проблема маркировки контента, созданного с помощью ИИ. Должны ли редакции сообщать читателям, что тот или иной материал был подготовлен с использованием искусственного интеллекта? Большинство участников сошлись во мнении, что да, такая маркировка необходима.
«Если читатели заподозрят, что им преподносят сгенерированный машиной текст под видом авторского материала, это может серьезно подорвать доверие к изданию», — подчеркнул один из выступающих. Открытость в этом вопросе способствует сохранению прозрачности и честности перед аудиторией. Однако прозвучало и мнение, что если ИИ используется лишь как вспомогательный инструмент (например, для проверки грамматики или первичного сбора информации), а финальный продукт полностью контролируется и редактируется человеком, то специальная маркировка может быть излишней.
Журналист обратил внимание на опасность, исходящую от российских и китайских моделей ИИ, особенно в контексте создания дипфейков и распространения дезинформации. Эти технологии могут быть использованы для манипуляции общественным мнением, что требует от журналистов особой бдительности и навыков фактчекинга.
Чаму ўрады баняць нейрасетку DeepSeek і што пра нас ведае ChatGPT?
Важнейшим принципом, который должен лежать в основе использования ИИ в медиа, является принцип контроля человека за работой ИИ. Искусственный интеллект должен служить инструментом в руках журналиста, а не заменять его критическое мышление и этическую ответственность. Как было отмечено, ИИ должен соответствовать фундаментальным правам человека.
Практические советы и перспективные инструменты
Несмотря на все сложности, участники встречи поделились и рядом практических рекомендаций по работе с ИИ:
- Промты лучше писать на английском языке: многие модели изначально обучались на англоязычных данных и лучше понимают запросы на этом языке, даже если способны генерировать текст на других языках.
- Google Workspace (и подобные интегрированные облачные решения) предлагает все больше ИИ-функций, которые могут быть полезны для совместной работы и автоматизации рутины.
- Новая нейросеть Grok от xAI также была названа перспективной и «крутой» разработкой.
- Позитивным моментом для беларусскоязычных медиа стало то, что YouTube начал лучше распознавать и понимать беларусскую речь, что расширяет возможности для создания и продвижения контента.

Изображение сгенерировано нейросетью Midjourney по запросу БАЖ
В заключение журналисты сошлись во мнении, что необходимо быть более ответственным к тому, какую информацию мы публикуем в интернете, поскольку эти данные могут быть использованы для обучения нейросетей, что в дальнейшем повлияет на качество и объективность генерируемого ими контента.
Встреча в Вильнюсе показала, что беларусское медиасообщество активно осмысливает вызовы и возможности, связанные с искусственным интеллектом.
Путь к эффективной интеграции ИИ в редакционную практику лежит через преодоление финансовых и кадровых барьеров, глубокое понимание потенциала технологий, а также выработку четких этических и юридических рамок их использования.
Только так искусственный интеллект сможет стать настоящим союзником журналистов в их миссии по предоставлению качественной и достоверной информации.
