Новость общества

К искусственному интеллекту рекомендовали относиться как к стажёру

К искусственному интеллекту рекомендовали относиться как к стажёру

Изображение сгенерировано с помощью ИИ

18.08.2025 в 18:28:00
145

Главная проблема искусственного интеллекта – отсутствие гарантированной достоверности, об этом рассказал директор Европейского центра программирования им. Леонарда Эйлера Руслан Богатырев

Более 30% россиян регулярно используют ИИ в рабочих целях, а около половины периодически обращаются к нейросетям для поиска различной профессиональной информации. По мнению экспертов, эти результаты опроса свидетельствуют о постепенном переходе от обычных поисковых систем, требующих формулирования чёткого запроса, к инструментам с ИИ. Чаще всего таким инструментарием пользуются маркетологи, IT-специалисты и юристы. Нейросети внедрены в бизнес-процессы 43% российских компаний, и некоторые сотрудники, чья деятельность в основном состоит из рутинных однотипных задач, уже опасаются увольнений из-за передачи их работы компьютерным алгоритмам. Прогресс ИИ и рост его популярности приводит к снижению потребности в кассирах и корректорах, однако в большинстве случаев нейросети пока не способны полностью заменить человека, а могут лишь помочь ему с выполнением некоторых задач. Более широкому использованию ИИ препятствуют такие риски, как предоставление неверной информации и возможная утечка конфиденциальных данных. 

Директор Европейского центра программирования им. Леонарда Эйлера Руслан Богатырев рассказал «Московской газете», что ключевой задачей развития информационных технологий (ИТ) должно стать достижение гармонии между компьютером и человеком, чтобы эти два мира дополняли друг друга и сосуществовали мирно и комфортно. 

«Нужны такие мощные и продуманные инструменты, которые позволят человеку и дальше совершенствовать компьютерные технологии, делать их лучше. Себе во благо. В частности, наш Центр, открытый в 2005 г. в Москве как центр компетенции швейцарских научных и коммерческих ИТ-решений в области языков, компиляторов и операционных систем, последние лет десять плотно занимается изучением того, что будет после ИИ. Не только выявляя изъяны и проблемные места ИИ, но и формируя то, что я бы назвал анти-ИИ, «антиискусственным интеллектом». ИИ – это когда на базе компьютерных технологий пытаются имитировать человеческое мышление и поведение. А мы хотели бы, наоборот, внедрить всё лучшее от компьютера в человека. В его ментальность. Безотносительно того, будет ли он использовать ИИ или нет, – отметил Руслан Богатырев. – Ведь каждый в своей жизни так или иначе сталкивается с основами компьютерных систем: с данными, алгоритмами, сценариями, ресурсами. Вот только оперирует ими чаще интуитивно и на глаз. Тогда как в этой области за прошедшие десятилетия выявлены чёткие правила, закономерности, строгие математические основания».

По словам собеседника, на текущем этапе своего развития искусственный интеллект уже стоит воспринимать, как хорошего помощника или ассистента, которому можно поручать определённую ответственную работу по принципу подряда или аутсорсинга. 

«Я рекомендовал бы относиться к ИИ, как к аналогу стажёра, который должен выполнить конкретную работу в нужный срок. Можно относиться к нему и как ко внешнему эксперту, которому мы задаём вопрос на какую-то тему. Ведь принципиальной разницы в характере ответа и его обосновании между человеком-экспертом и искусственным интеллектом практически нет. Он даёт вам ответ, а вы уже решаете, доверять ему или нет, проверять ли полученную информацию и обращаться ли к этому эксперту в следующий раз».

Главная проблема искусственного интеллекта – отсутствие гарантированной достоверности. Для государственных организаций это особенно опасно. ИИ по сути является вероятностной математической структурой, работающей по модели, заложенной разработчиками. А у любой подобной модели диапазон ложноположительных и ложноотрицательных результатов довольно широк. Она может выдать ложный ответ и не понесёт за это никакой ответственности – ни юридической, ни какой-либо ещё. Как сегодня работает генеративный, порождающий ИИ, легко проверить на двух самых популярных в России ИИ-инструментах: ассистенте «Алиса» от «Яндекса» и GigaChat от Сбера. Им можно задать один и тот же вопрос несколько раз и получить совершенно разные ответы, и каждый из них искусственный интеллект как-то обоснует. Внешне убедительно. Причём если ответ окажется неверным, некорректным, никто за это отвечать, разумеется, не будет», — констатировал Богатырев. 

Он добавил, что эту проблему достоверности возможно решить для выполнения узких или типовых задач, для которых допустим чёткий шаблон. Потенциально это можно делать и для широкого спектра проблем, если использовать специальный блок контроля достоверности результата. Но в целом для задач, требующих сложных и критически важных решений, результаты работы ИИ необходимо перепроверять особенно тщательно. А если время, необходимое для перепроверки, сопоставимо со временем, которое было бы потрачено на выполнение самой работы человеком или компьютерной системой без ИИ, возникает вопрос о целесообразности использования ИИ в подобных ситуациях.

Руслан Богатырев привёл показательный пример обманутых ожиданий при использовании ИИ. Так, в начале июля 2025 г. исследовательский центр METR (Model Evaluation & Threat Research), сотрудничающий с ведущими компаниями и организациями в области искусственного интеллекта (в частности, с OpenAI и NIST AI Safety Institute Consortium), представил исследование того, как влияет ИИ на разработку программного обеспечения (ПО). Были отобраны 16 опытных разработчиков ПО, которые решали около 250 реальных задач – от внесения правок до реализации новых функций. Разработчики заранее предполагали, что применение ИИ-инструментов ускорит их работу в среднем на 24%. И даже после завершения исследования их иллюзии сохранялись. Фактически же оказалось, что разработчикам потребовалось на 19% больше времени, чем без ИИ.

Другой пример, который привёл Руслан Богатырев, – знаменитая американская компьютерная корпорация IBM, которой свыше 100 лет, в 2023-2024 годах решила в свои кадровые подразделения внедрить виртуального ассистента AskHR. При этом было уволено 8 тыс. сотрудников. В итоге с задачами личностного взаимодействия инструмент полноценно справиться так и не смог. Пришлось несколько тысяч сотрудников возвращать обратно в штат.

«Доверие к ИИ – очень серьёзная проблема. Сложно доверять системе, если мы не знаем, как она устроена, как она настроена и какие у неё выбраны приоритеты. А разработчики ИИ-моделей эту информацию, по понятным причинам, не раскрывают. ИИ – это фактически чёрный ящик, внутреннее устройство которого недоступно извне. Искусственный интеллект в большинстве случаев неплохо справляется с общими, интегральными ответами. То есть он может описать картину в целом, но с выверенной детализацией при решении сложных задач возникают реальные проблемы», – пояснил Руслан Богатырев. 

Говоря об использовании ИИ в профессиональных целях, например, бухгалтерами или журналистами, Богатырев призвал оценить, даёт ли применение этого инструмента какие-либо конкурентные преимущества по сравнению с другими сотрудниками, и использовать ИИ для решения только тех вопросов, в которых данный специалист сам хорошо разбирается. 

«Если у вас, скажем, нет медицинского образования, то неважно – идёт ли речь о живом враче или об ответе, выданном искусственным интеллектом – вы не сможете точно сказать, правильную ли рекомендацию он вам дал. И вам придётся довериться компетентности того, к кому вы обратились. Но если вы журналист и попросили ИИ сделать краткую выжимку из какой-то статьи, понимаете, как бы вы сами это сделали и устраивает ли вас тот результат, который предоставил искусственный интеллект. Надёжно использовать такой инструмент можно только тогда, когда вы прямо или косвенно контролируете механизм решения задачи и можете проверить итоговый результат. Конечно, в повседневной работе искусственный интеллект способен помочь, но желательно всегда иметь возможность проверить результат и сохранять в тонусе свои компетенции. Потому что если вы в течение долгого времени перепоручаете какую-то работу искусственному интеллекту, просто неизбежно теряете квалификацию. И если в какой-то момент возникнут проблемы с его использованием, выполнить ту же работу самостоятельно может оказаться уже сложно», – предупредил Руслан Богатырев.

Он также посоветовал всегда задумываться о том, какие преимущества есть у самого специалиста по сравнению с ИИ. 

«Если мы берём ту же журналистику, то главное преимущество заключается не в технических и стилистических моментах, а в понимании темы и подходах к ней. Журналист может посмотреть на проблему с разных ракурсов, привлечь нужных экспертов, детально проанализировать и перепроверить их информацию, и эти высокоуровневые задачи за него искусственный интеллект решить эффективно не сможет», – констатировал эксперт. 

В заключение Руслан Богатырев призвал не бояться искусственного интеллекта, не абсолютизировать ИИ, не игнорировать его, но при этом стараться сохранять над ним контроль. 

«Как и у любой программы, у ИИ-моделей могут выходить обновления, в результате которых весь функционал может существенно меняться. Поэтому контроль должен быть не единоразовым: когда вы перепроверили результат, он вас устроил, и вы стали полностью поручать эту работу искусственному интеллекту. Доверяй, но проверяй! Контроль должен быть постоянным, с регулярной полной или выборочной перепроверкой результатов», – предупредил директор Европейского центра программирования.

Ранее главный редактор «Московской газеты» Валерий Ивановский также предупредил о рисках использования нейросетей в журналистике. По его словам, материалы в СМИ, написанные искусственным интеллектом, оказываются очень низкого качества, поскольку ИИ не может анализировать события с точки зрения человека и его потребностей. Кроме того, к помощи ИИ часто прибегают сотрудники, которые не уверены в собственной компетентности и вместо саморазвития предпочитают опираться на компьютерные алгоритмы. Если же журналист уважает свою аудиторию и не готов публиковать информацию, предоставленную искусственным интеллектом, без дополнительной проверки, он столкнётся с необходимостью обращаться к эксперту в тех вопросах, по которым он использовал ИИ, для перепроверки результатов. А значит он вынужден будет тратить дополнительное время и деньги на выполнение фактически двойной работы.

Автор: Алексей Черников
ТеГИ
Искусственный интеллект, работа, нейросеть, ИИ
Поделиться
Похожие новости