Использование ИИ в журналистике несёт в себе двойной вред

Основатель «Московской медиагруппы» рассказал, какую опасность для журналистики представляет ChatGPT
Некоторые западные медиа рассматривают возможность отдать часть функций своих журналистов искусственному интеллекту. О таких планах говорили в Bild, Daily Express и Daily Mirror. Однако российские читатели, как показал проведённый в 2023 году опрос, не готовы читать тексты, которые вместо живого журналиста писала нейросеть. Более трети респондентов заявили, что откажутся получать информацию из СМИ, где написание материалов поручат ИИ, а 25% сказали, что станут меньше доверять такому медиа. 38% участников опроса сочли, что искусственный интеллект в работе СМИ можно использовать с ограничениями, а 22% предложили и вовсе запретить такую практику. Чаще всего в качестве примеров негативного влияния искусственного интеллекта на СМИ россияне упоминали его подверженность взломам и одинаковость текстов, написанных при помощи нейросетей. Даже сам ChatGPT признаёт, что ему вряд ли удастся полноценно заменить журналиста. В ответ на соответствующий запрос чат-бот напомнил, что для создания качественного материала необходимо не просто писать связный текст, но и анализировать информацию, грамотно подавать её аудитории и учитывать текущий социальный и политический контекст. Также ChatGPT предупредил, что информация, на которой он обучается, может оказаться ложной, оскорбительной или юмористической, поэтому ответы нейросети не всегда бывают корректными.
Однако многие руководители и сотрудники как российских, так и зарубежных изданий признают, что в качестве вспомогательного инструмента искусственный интеллект может быть очень полезным. С его помощью можно быстрее искать орфографические ошибки, осуществлять поиск в объёмных архивах и вычленять необходимую информацию из больших массивов данных, формировать краткие справки о ранее произошедших событиях и оценивать популярность вышедших материалов. Комментируя эксперимент по созданию текстов и иллюстраций при помощи нейросети, проведённый РБК в 2023 году, главный редактор издания Пётр Канаев выразил уверенность в том, что с развитием ИИ журналистика не умрёт, но серьёзно трансформируется. О том, какие риски порождает применение искусственного интеллекта в работе СМИ и как их минимизировать, рассказал основатель «Московской медиагруппы», главный редактор «Московской газеты» Валерий Ивановский.
По мнению Валерия Ивановского, использование ChatGPT в журналистике несёт в себе двойной вред:
«Первое связанно с тем, что, если мы отступаем от теоретических рассуждений о том, насколько он [ChatGPT, — прим. ред.] прекрасен и как облегчает работу журналиста, и переходим к практике, то сталкиваемся с тем, что любой материал, который нам попадается, всегда очень низкого качества, потому что ИИ не умеет анализировать события с точки зрения человека. События, которые происходят сами по себе, и события, которые оценивает человек – это очень разные вещи. Потому что человек всегда анализирует действительность с точки зрения решения практической задачи. Его интеллект — это инструмент для решения практических задач. Практическая задача всегда одна — найти вещество и энергию в окружающем мире и потребить ее наиболее экономным образом. С другой стороны, нужно убрать противоречия между реальной и желаемой ситуацией. У искусственного интеллекта этого нет, и созданные им материалы всегда будут получаться гибридно-некомпетентными».
Вторым негативным фактором применения ИИ в журналистике Валерий Ивановский назвал то, что ChatGPT и другие подобные инструменты часто используют сотрудники, которые не уверены в своей компетентности.
«Но используя ChatGPT как очень некачественные костыли они [сотрудники, — прим. ред.] вместо того, чтобы развивать свои компетенции, только ещё больше нивелируют их. То есть это путь к деградации во всех смыслах. Ещё одна очень серьезная вещь, касающаяся ChatGPT, заключается в следующем: чем более специфический запрос, чем большей экспертности он требует и чем сильнее результат влияет на жизнь людей, тем более строгие требования предъявляются к ответам нейросети. То есть на практике получается, что, когда ИИ выдает какой-то результат, должен быть эксперт, который его проверит и одобрит. Потому что и с юридической, и с практической точки зрения результаты ChatGPT нельзя оставлять без контроля. Если вы ответственно относитесь к своему делу, в чём бы оно ни заключалось, вы не можете себе такого позволить. Поэтому требуется контроль. Причём эксперт, который проводит проверку ответов ChatGPT, должен быть в этой области уровнем выше, чем сам чат-бот. Поэтому вместо экономии времени люди, которые в таких областях используют ИИ, вынуждены делать двойную работу. Нужен оператор, который обладает определенными компетенциями, чтобы ввести параметры, и нужен эксперт, который даст заключение, что результат этой работы безопасен и его действительно можно принимать в работу», — пояснил Валерий Ивановский.
Главред «Московской газеты» констатировал, что при использовании ИИ происходят либо потери времени, если формированием запроса и проверкой результата занимается один человек, либо финансовые потери, если эти задачи решают два разных специалиста, ведь их работу необходимо оплачивать.
«Таким образом получается, что ChatGPT несет вполне серьезные угрозы к качеству деятельности. И если мы экстраполируем эти выводы на сложные системы, и, если в нескольких местах этой сложной системы применяется искусственный интеллект, который в силу вышеизложенных ограничений не может корректно обрабатывать запросы, накапливаются ошибки, которые могут привести в результате к слому системы и её параличу. А если эта система обслуживает чувствительное функционирование социума, например, жизнеобеспечение, снабжение какими-то важными для жизни ресурсами, то всё это может привести к очень большим катастрофам, трагедиям с человеческими жертвами. Если же его используют для обработки больших массивов данных, для этого уже есть множество изобретений, начиная со счётов, калькуляторов и заканчивая сложными компьютерами и лэптопами. А вся эта история с Chat GPT больше похожа на какую-то авантюру», — заключил Валерий Ивановский.
Ранее председатель Союза журналистов Москвы, главный редактор «Московского комсомольца» Павел Гусев заявил, что ИИ не может на одном уровне с человеком анализировать информацию или перепроверять факты, а значит и заменить этим инструментом профессионального журналиста невозможно. По его словам, даже такие точечные задачи, как составление заголовка, настоящий профессионал решает лучше нейросети, поэтому перспективу увольнения некоторых журналистов и их замены на ИИ Гусев назвал тревожной. Он подтвердил, что нейросеть действительно может повысить эффективность некоторых процессов, и эксперименты с ней можно продолжать, однако нельзя забывать, что ИИ лишает журналистику творческой составляющей, поэтому подходить к его использованию стоит очень аккуратно.
Читайте также: Отчёт Apple: искусственный интеллект демонстрирует «иллюзию мышления»
-
По мнению эксперта, детям с младшего школьного возраста час-два в день использование компьютерной техники не повредит, с...07.08.2020 в 16:08:0011453
-
Поработав над собой, можно встретить кризисы во всеоружии28.07.2020 в 16:21:004591
-
Также эксперт рассказал, в каком случае человек может пойти на убийство под воздействием внушения ...23.07.2020 в 20:29:0010132
-
Эксперт рассказал, чем может быть обусловлена с психологической точки зрения данная поправка к Основному закону России&n...05.07.2020 в 06:52:006209
-
Журналисты и экологи запускают новый проект по очистке города от экскрементов собак.10.04.2017 в 12:39:006457
-
Общественные награды «»Агентства реализации социально-политических инициатив «За вклад в укрепле...17.07.2016 в 17:49:003735