За комментарием, что может означать блокировка каналов с контентом, произведенным ИИ и к каким последствиям для медиаотрасли и журналистики это может привести — мы обратились к председателю Волгоградского отделения Союза журналистов России Вячеславу Черепахину:
— На мой взгляд, это показательное событие, касающееся перспектив развития ИИ. О регламентации работы нейросетей начали говорить практически сразу после выхода на рынок ChatGPT, лет пять назад. Свои версии маркировки продукции ИИ предлагали Волгоградский и Московский Государственные университеты, участники рынка, разработчики, но, как и в случае с соцсетями, государственные законодательные органы отчаянно буксуют.
— С соцсетями была аналогичная ситуация – в период бурного их развития мало кто думал о негативных факторах, и только спустя несколько лет после их появления, в 2012-2014 годах, в правилах пользования стали появляться новые пункты, касающиеся ограничений распространения материалов по национальному, половому, этическому, возрастному и другими критериям. Каждая платформа сама определяла свой свод законов исходя из практики, каких-то резонансных событий или конфликтов, связанных с негативными последствиями использования соцсетей. И только после саморегуляции платформ к делу подключились законодатели в большинстве государств, за основу взявшие уже выработанные принципы ограничения контента. Сейчас неважно, почему государственные институты проигрывают транснациональным сетям в регуляции технологий, может это и закономерно, сейчас интересно, что в случае с ИИ — история может (и должна) повториться. И поэтому надо внимательно изучать, что будут делать YouTube и другие запрещенные и нет соцсети с контентом, произведенным с помощью нейросетей.
— Почему это важно? Здесь я вспомню дискуссию, которая перманентно проходит в медиаотрасли последние годы – для чего нужен ИИ. Пока каждая редакция самостоятельно определяет для себя свод правил. На примере волгоградских редакций могу сказать, что спектр применения очень широк – где-то полный запрет на использование, где-то допускается аналитика, а где-то не пренебрегают и ИИ-рерайтами – никакого единого стандарта.
— Тут я бы высказал свою позицию – на мой взгляд, природа и сила ИИ как технологии – аналитика и работа с большими данными. Этим и должен владеть журналист. Контент конечно тоже можно делать – но зачем? Любое человеческое слово, даже кривоватое, не только честнее машинного, но главное – является мостиком между мыслью журналиста и читателем. Зачем привилегию обращаться к своей аудитории отдавать машине? А зачем тогда в принципе быть журналистом? Другое дело – с помощью ИИ добывать, обрабатывать и анализировать данные для своего материала, получать консультацию по сложным вопросам.
— Это кстати нередкая позиция даже среди разработчиков нейросетей и ассистентов. Например, первая и самая продвинутая российская разработка, бизнес-ассистент Komanda.ai — предоставляет возможность автоматизировать, оптимизировать и упрощать сотни бизнес-процессов. И лишь малая часть из них касается непосредственно производства контента. Это есть, но разработчики понимают перспективу внедрения ИИ в производственные процессы как инструмент снижения временных издержек и разработки качественных решений, а не заменитель творческих единиц.
— Так вот, возвращаясь к стандартам – именно поведение транснациональных платформ в ближайшие месяцы покажет нам, по какому пути пойдет регуляция использования ИИ. Упростит ли это жизнь журналиста? Вряд ли. Любые стандарты и ограничения только усложняют нашу работу. Но, с точки зрения медиапотребителя, это конечно благо, потому что позволяет четко понимать, что ты сейчас потребляешь, способствуя адекватному потреблению информационного продукта. А это и есть залог успешности любого медиа.
