Мнения

ИИ стал моим коллегой по редакции. Как сообщить об этом аудитории?

Анастасия Нани

Это очевидно и неизбежно. Искусственный интеллект меняет (и) способ ведения журналистики и потребления информации. Это происходит по всему миру. Это происходит и в Республике Молдова. Редакции используют искусственный интеллект для выполнения различных задач: поиск информации, редактирование, перевод, транскрибирование аудио- и видеоматериалов, проверка фактов, генерация идей, заголовков, текстов и т. д.

Пока что на медиарынке нашей страны нет исследований, которые бы ответили на вопрос, были ли или могут ли быть заменены журналисты, редакторы, издатели инструментами ИИ. Также недостаточно информации, чтобы понять, помогает ли ИИ каким-то образом в решении одной из острых проблем многих редакций – кадровый кризис.

ChatGPT открыл «ящик Пандоры»

Однако последнее Исследование потребностей СМИ в Молдове, в котором приняли участие 101 редакция, опубликованное Центром независимой журналистики (ЦНЖ) в июне 2025 года, показывает, что более двух третей респондентов (67%) используют инструменты на базе искусственного интеллекта в своей профессиональной деятельности. Четверть опрошенных (26%) заявили, что такие инструменты в их редакции не применяют. Данные были собраны в апреле и мае 2025 года. Скорее всего, с тех пор доля тех, кто использует новые технологии, только выросла.

То же исследование показало, что самыми часто используемыми инструментами на базе искусственного интеллекта в молдавских медиаорганизациях являются автоматический перевод (63%), приложения для генерации текста (57%) и автоматическая корректировка или переформулирование письменного контента (54%). Около половины респондентов говорят, что используют ИИ для транскрибации аудио- и видеоматериалов (53%) и генерации изображений (50%). Автоматическое субтитрирование упоминает 32% участников, применяющих подобные технологии.

Это всего лишь цифры, и при следующем измерении они будут выше, будут включать инструменты, выполняющие еще больше задач, а использование ИИ станет все более интегрированным в редакционные процессы. Это реальность, с которой нам предстоит жить отныне. Она (почти) аналогична той, которая возникла, когда социальные сети вошли в нашу жизнь. Адаптировались граждане, адаптировались и редакции. А те СМИ, которые сопротивлялись изменениям, остались в архиве.

Это подтверждает и относительно недавнее исследование, проведенное Фондом Thomson Reuters на выборке из более чем 200 журналистов из примерно 70 стран глобального Юга и государств с развивающейся экономикой, опубликованное в январе 2025 года. Согласно этому исследованию, более 80% респондентов используют инструменты искусственного интеллекта в своей журналистской деятельности, почти половина интегрировали такие платформы в ежедневные рабочие процессы, а почти треть применяют ИИ еженедельно. Журналисты признали, что эти технологии помогают им экономить время, привлекать новую аудиторию и работать более эффективно. В исследовании говорится, что ChatGPT – самый популярный инструмент в мире искусственного интеллекта. Здесь стоит сделать ремарку: мы все использовали ИИ, даже не осознавая этого, еще до появления ChatGPT, но именно он открыл «ящик Пандоры».

ИИ не совершенен

Теперь, когда мы уже не можем противостоять эволюции, стоит задать себе вопрос: сообщаем ли мы потребителям медиа, что ИИ стал нашим коллегой, что мы поручаем ему задачи, что некоторые из них он выполняет от начала до конца, а иногда даже принимает решения на основе обработанных им вопросов и информации?

Предполагаю, что часть профессионального сообщества может возразить: зачем вообще открывать дверь в нашу «кухню», если можно просто подать конечному потребителю красиво упакованный продукт?

Этого недостаточно. Со временем многие редакции поняли, что самая ценная связь, которую они могут установить, – это связь с аудиторией. Лояльность читателей, телезрителей, радиослушателей – это главный капитал любого СМИ. В любых отношениях, которые нам дороги, важно быть честными. Журналисты требуют прозрачности от властей, и не только от них. Почему же наша аудитория не должна иметь право знать, кто (или что) работает над материалами, которые мы ей предлагаем, чтобы понимать, насколько достоверны методы сбора информации, к которым мы прибегаем?

Примеры из международной прессы показывают, что раскрытие факта использования ИИ стало нормой, а не выбором, уязвимостью или поводом для стыда. Крупные редакции заявляют о своей прозрачности в отношении применения ИИ, признают, что используют его, но не в ущерб точности, сбалансированности и креативности.

«Журналисты Reuters иногда используют генеративный искусственный интеллект как один из инструментов в нашей работе по освещению событий, написанию, редактированию, производству и публикации. Когда мы в основном или исключительно полагаемся на генеративный ИИ для создания новостного контента, мы четко раскрываем этот факт, предоставляя контекст, в котором был использован инструмент», – сообщает Reuters в специальном разделе – Reuters и ИИ.

BBC, например, не только имеет четкую политику в отношении ИИ, но и регулярно ее обновляет. Последнее обновление было сделано в июне 2025 года, потому что «опыт, экспертиза и технологии постоянно меняются». «BBC ясно дала понять, что будет использовать искусственный интеллект в соответствии с ценностями общественного вещания, будет делать акцент на таланте и креативности, а также останется открытой и ответственной», – говорится в руководстве по использованию ИИ, опубликованном BBC.

The Washington Post также признает в своей политике применения ИИ, что использует новые технологии для ускорения работы, но строго в соответствии со стандартами редакции: «Мы используем ИИ для предложения сопутствующего контента, перевода, а также для просмотра документов или тысяч изображений. Какой бы ни была задача, мы признаем, что это новая и несовершенная технология, а значит, она не гарантирует точность, и проверка остается крайне важной».

Решения в редакции принимают люди, а не алгоритмы. Пока что

Теперь вернемся к нашим цифрам. Несмотря на примеры от «крупных игроков», исследование Фонда Thomson Reuters показывает, что многие используют новые инструменты, но лишь немногие имеют редакционную политику. «Несмотря на высокий уровень внедрения среди участников нашего опроса, только 13% респондентов заявили, что у них есть официальная политика в отношении ИИ на рабочем месте. Почти восемь из десяти (79,1%) респондентов отметили отсутствие четкой политики компании», – говорится в исследовании Фонда Thomson Reuters.

СМИ в Республике Молдова – не исключение. Исследование потребностей, опубликованное ЦНЖ, показало, что лишь 12% медиаорганизаций, использующих инструменты на базе ИИ, заявляют о наличии четкой и действующей внутренней политики в отношении ответственного и этичного использования этих технологий. В 28% случаев такие политики находятся в процессе разработки, а 44% утверждают, что у них нет политики, но они считают ее необходимой. 15% респондентов отметили, что не имеют политики и не считают ее нужной на данный момент.

Исследование было опубликовано в год выборов, когда в Интернете появилось множество дипфейков, созданных с помощью ИИ. Подобные явления показывают, насколько важно редакциям разработать внутреннюю политику использования искусственного интеллекта, чтобы сохранить прозрачность и доверие со стороны аудитории. Это отношения, которые нам небезразличны, не так ли? Прозрачность – это не только обязанность перед общественностью. Это также форма защиты для нас самих.

  1. Редакционная политика поможет защитить профессиональные стандарты, поскольку без четких правил каждый сотрудник может по-своему трактовать границы использования ИИ.
  2. ИИ может непреднамеренно стать источником ложной информации, а в журналистике точность – это святое. Если мы не пропускаем информацию, сгенерированную ИИ, через собственные фильтры, мы рискуем репутацией редакции.
  3. И, в конце концов, редакционная политика должна определить ИИ как вспомогательный инструмент, а не как замену журналистам.

Каждая редакция может дополнить этот список аргументов. Но не стоит забывать, что ради хороших отношений с аудиторией такой документ должен быть публичным. И почему бы не начать с простого утверждения: «Решения в редакции принимают люди, а не алгоритмы»? Пока что.

P.S. При написании этого текста ChatGPT использовался лишь частично, под наблюдением человека.

Анализ был проведен в рамках проекта «Устойчивая пресса, информированные избиратели: защита выборов в Молдове от дезинформации», финансируемого Посольством Королевства Нидерландов в Молдове. Высказанные мнения принадлежат авторам и не обязательно отражают позицию донора.

Show More

💬 ...

Back to top button