Новость общества

Использование искусственного интеллекта сравнили с «русской рулеткой»

Использование искусственного интеллекта сравнили с «русской рулеткой»

Фото сгенерировано нейросетью

05.09.2025 в 16:40:00
1046

Для изучения ИИ нужно создать отдельное направление в психологии

Люди все чаще используют инструменты с искусственным интеллектом в своей деятельности. К примеру, 28% россиян регулярно обращаются к ИИ для решения рабочих задач. Чаще всего нейросетями пользуются молодёжь и люди, которые занимают высокие должности. 

Однако иногда это принимает экстремальные формы. В медицинском сообществе закрепился термин думпромптинг – новая форма цифровой зависимости, когда человек испытывает постоянную потребность общаться с ИИ и даже заменяет этим реальное общение с другими людьми. 

Как пишет издание gazetametro.ru пишет, по мнению психологов у людей, которые по любому малейшему поводу отправляют запрос чат-боту, может сложиться впечатление, будто они занимаются саморазвитием и получают новые знания. На самом деле при такой зависимости собственное мышление деградирует и исчезает навык каким-либо другим способом искать информацию, а готовые ответы, сформированные ИИ, не закрепляются в памяти. Частично «думпромптинг» провоцируют сами разработчики нейросетей, которые настраивают их на продление диалога с пользователем, демонстрирование постоянного одобрения и поддержки. Однако сами люди также зачастую предпочитают общаться с ИИ, потому что думают, что в реальной жизни их так больше никто не поддержит, а любую информацию всегда проще получить в готовом кратком виде.

В беседе с «Московской газетой» директор Европейского центра программирования им. Леонарда Эйлера Руслан Богатырев назвал зависимость от общения с ИИ действительно серьёзной проблемой, которая становится всё более заметной. 

«Не секрет, что компьютеры давно уже проникли в самые потаённые уголки нашего мира и нашего сознания. А системы искусственного интеллекта – частный случай компьютерных систем со всеми вытекающими последствиями. Эксперты вводят понятия «думпромтинг» — зависимость от запросов к ИИ, и «думскроллинг» — зависимость от листания интернет-страниц. Но doom – не просто тревога и зависимость. Есть такие варианты перевода с английского, как приговор, судьба, гибель, рок. Потому можно ввести и более сильное понятие – «думтраст»: зависимость и гибель от доверия (trust). Именно в отношении доверия заключаются самые серьёзные претензии к ИИ», — предупредил специалист.

Руслан Богатырев напомнил, что искусственный интеллект изначально создавался как нечто, подобное человеку, но значительно превосходящее его по словам, мыслям и поступкам. 

«Но, если задуматься, ИИ — это ребёнок в облике мудреца, убелённого сединами. Он инфантилен, наивен, самоуверен, у него каша в голове, он может нашкодить. Зато обаятелен, общителен, способен неосознанно находить удивительные по своей глубине связи между привычными предметами и понятиями. И в этом его сила и его притягательность. При этом взрослые наивно полагают, что этот чудо-ребёнок умнее их. Как тут не вспомнить Мишеля де Монтеня, французского писателя и философа эпохи Возрождения: «Люди ни во что не верят столь твёрдо, как в то, о чём они меньше всего знают». Психология как наука стала складываться лишь в конце XIX века. Ещё и двух столетий не прошло. А ведь психику ИИ, этого большого компьютерного ребёнка, надо также изучать капитально, научно, серьёзно: в фундаментальном, прикладном и практическом плане. Полагаю, на повестке дня стоит создание аналога психологии, но где объектом изучения станет уже не человек, а порождённый им ИИ», — считает Руслан Богатырев.

Клинический психолог Валерий Ивановский предположил, что само словосочетание «искусственный интеллект» может вводить многих в заблуждение, потому что его воспринимают, как некий сверхразум, обладающий огромными возможностями и лишённый человеческих недостатков. 

«Многим искусственный интеллект представляется всезнающим оракулом, способным ответить на любой вопрос. На самом деле это всего лишь усовершенствованный инструмент, в принципе известный людям уже давно. ИИ можно сравнить со словарём или энциклопедией. Это массив данных, к которому добавлена программа, позволяющая задавать вопрос и быстро извлекать из этого массива ответ на него. Эта промпт-программа выполняет ту же роль, которую выполняет библиотекарь в библиотеке. Но в отличие от живого библиотекаря, она не может оценить правдивость, объективность и соответствие запросу той информации, которую выдаёт. У программы нет эмпатии, сочувствия и понимания того более широкого контекста, в котором задан вопрос. Поэтому ответы искусственного интеллекта линейны и ограничены степенью разработанности самой программы, а значит он может совершать трагические ошибки», — пояснил Валерий Ивановский.

По словам специалиста, перечисленные недостатки ИИ становятся особенно очевидными, когда люди пытаются поговорить с чат-ботом на личные темы и тем более использовать его в качестве своего рода онлайн-психолога. 

«Такое общение может даже закончиться трагедией. В прессе описаны случаи, когда под влиянием советов искусственного интеллекта люди кончали жизнь самоубийством или убивали своих близких. Уже звучат предостережения от пионеров разработки ИИ о том, что люди ожидают от этого инструмента решения несвойственных ему задач. Они призывают инвесторов не вкладывать чрезмерно большие суммы денег в такие разработки, а программистов – не сосредотачиваться исключительно на этой сфере. Проблемой остаётся и релевантность информации, предлагаемой искусственным интеллектом, особенно в случае с промптами, предполагающими сканирование больших сегментов интернета. ИИ выдаёт массив информации, которая не сравнивалась и не перепроверялась, и наряду с ценными мыслями там может содержаться абсолютная ересь. Поэтому нельзя без каких-либо ограничений использовать ИИ в тех областях, где речь идёт о здоровье или качестве жизни человека. В таких случаях обязательно должен работать человек-оператор, который бы перепроверял выводы чат-бота и подтверждал их обоснованность», — констатировал Валерий Ивановский.

Клинический психолог выразил уверенность в том, что период большого восхищения искусственным интеллектом сменится более сбалансированным отношением к этому инструменту. 

«Модели искусственного интеллекта, конечно, можно использовать как вспомогательный инструмент, но они не снимают вопросов о навыках и компетенциях самого человека, об ответственности за собственную жизнь. Если мы отдаём эту ответственность неким внешним акторам, мы зачастую играем в «русскую рулетку». Это рискованно и, как правило, неоправданно. Как показали наши собственные эксперименты с написанием текстов, переводом, анализом массивов финансовых данных, ИИ порой может выдавать критические ошибки. Поэтому при использовании таких продуктов всегда должен быть контроль специалиста», — подчеркнул Валерий Ивановский.

По его словам, искусственный интеллект можно рассматривать как рассудочную деятельность или более широко — как мышление:

«Но мы должны понимать, что мышление — это не просто логические операции, когда есть сравнение, анализ, синтез, обобщение, абстракции, индукция, дедукция и другие методы оперирования с какими-то фактами. Мышление человека — это способ решения практических задач по удовлетворению наших потребностей. В этой связи встает вопрос о ценностях, смыслах, о потребностно-эстетической и этической сфере человека. Это может быть непреодолимой пропастью в функциональности искусственного интеллекта и препятствием в повышении его роли в жизни человека, так как на любом уровне ИИ не способен решать мыслительные задачи, когда мы говорим о ценностных задачах и задачах, связанных с удовлетворением разного рода потребностей. 

Иногда в одном мыслительном акте существует конфликт потребностей, более низкого или высокого порядка, когда мы начинаем оперировать нравственными или этическими категориями, и эта сфера недоступна искусственному интеллекту, потому что отсутствие тела, которое нуждается в обмене веществом и энергией с внешним миром, предопределяет его принципиальные ограничения, которые невозможно перейти».

Другие специалисты также предупреждают о рисках психических срывов и отклонений из-за длительного бесконтрольного общения с ИИ. Так, психиатр медицинской школы Калифорнийского университета Кит Саката подчеркнул, что диалоги с ИИ на личные темы при отсутствии достаточного человеческого общения могут усугубить нестабильные состояния, которые уже наблюдались ранее. Фиксируются случаи, когда чат-боты побуждают пользователей отказаться от назначенного врачами лечения, подталкивают к разрыву семейных связей или убеждают в наличии сверхспособностей.

Автор: Алексей Черников
ТеГИ
ИИ, искусственный интеллект, риски, психология
Поделиться
Похожие новости