Эпоха искусственного интеллекта породила новые риски для человечества

Эпоха искусственного интеллекта породила новые риски для человечества

Изображение сгенерировано с помощью ИИ

09.05.2026 в 17:03:00
57

К концу 2025 года 16,3% всего населения планеты использовали искусственный интеллект для решения рабочих, учебных или повседневных задач. Такая информация содержится в отчёте Microsoft AI Economy Institute. Причём лидерами по доле жителей, использующих ИИ, оказались не западные страны, как можно было бы подумать, а ОАЭ и Сингапур. За ними идут Норвегия, Ирландия, Франция и Испания. Преимущества ИИ, казалось бы, очевидны: нейросети позволяют кардинально ускорить выполнение рутинных задач и автоматизировать многие процессы, облегчают доступ к информации и разгружают сотрудников от однотипной работы, позволяя направить ресурсы на выполнение более сложных или творческих задач. ИИ активно применяется в торговле, логистике, здравоохранении, образовании, финансовой и правоохранительной сферах. Ожидается, что к 2030 году совокупный эффект от внедрения искусственного интеллекта в денежном выражении приблизится к 20 трлн долларов и составит 3,5% мирового ВВП

Однако по мере развития ИИ-моделей их всё чаще используют в общественно опасных целях. Порой дипфейки приводят к негативным последствиям по недомыслию пользователей, а иногда их применяют и для преднамеренных преступлений. Так, недавно сгенерированное ИИ фото в Южной Корее помешало сотрудникам экстренных служб поймать реального волка, сбежавшего из зоопарка, пишет издание gazetametro.ru. Житель города Кэджон откликнулся на призыв полиции к тем, кто увидит хищника, присылать его фото для скорейшей поимки, и отправил картинку, созданную искусственным интеллектом. На фейковом фото был изображён тот самый волк якобы в одном из районов города. Полицейские закрыли близлежащую школу, чтобы оградить детей от опасности, и приступили к поискам в указанном районе, но никого не обнаружили. Впоследствии было заявлено, что неудачная шутка задержала поимку волка на 9 дней. Теперь мужчине грозит уголовное наказание. 

До 5 лет тюрьмы за неуважение к суду может получить и канадский адвокат, который генерировал несуществующие документы и ссылки на отсутствующие в реальности прецеденты для судебных процессов, в которых он участвовал. А в США двое 14-летних школьников создавали и распространяли через чаты в мессенджерах поддельные фото обнажённых одноклассников. Судья позднее заявил, что подростки не отправятся в тюрьму только из-за слишком юного возраста, однако им назначили испытательный срок и обязали удалить компрометирующие изображения.

Поскольку нейросети уже могут реалистично имитировать не только статичные фотографии, но и голос человека или даже видео, они ожидаемо стали настоящей находкой для мошенников. При должных технических познаниях преступники могут представляться кем угодно, предъявлять онлайн документы или другие подтверждения личности того, за кого они себя выдают, и благодаря этому выманивать у жертв деньги или конфиденциальные сведения. Один из крупнейших по сумме ущерба случаев мошенничества с помощью дипфейков произошёл в 2024 году в Гонконге. Сотруднику крупной международной компании поступило сообщение якобы от её финансового директора с приглашением поучаствовать в видеоконференции. На онлайн-совещании присутствовали сам директор и ряд других сотрудников, но реальным человеком был лишь тот, кого собирались обмануть. Остальные оказались цифровыми двойниками. Лже-руководитель дал указание осуществить несколько переводов на общую сумму $25,6 млн, после чего злоумышленники пропали со связи. Вся операция заняла около недели. Полиция Гонконга призвала граждан к бдительности. Среди прочего, правоохранители порекомендовали при возникновении сомнений в подлинности онлайн-собеседника найти предлог, чтобы спровоцировать его на движения головой, с чем цифровые двойники пока плохо справляются, или задать вопросы, ответы на которые может знать только реальный человек. 

ИИ-мошенничество набирает популярность и в России. Технологии уже позволяют на основе образцов голоса и фото человека генерировать аудиосообщения или видеокружочки, рассылать их знакомым жертвы и, к примеру, просить у них срочно перевести деньги под предлогом любой экстренной ситуации. Специалисты Промсвязьбанка по кибербезопасности предупредили, что по мере развития технологий становится возможной генерация голоса или видеоряда в формате онлайн-беседы, а не записанных заранее сообщений. Однако такие дипфейки пока редки из-за того, что их всё ещё просто отличить по неестественной мимике или нехарактерному поведению ИИ-собеседника. Чтобы избежать ущерба от таких мошеннических схем эксперты советуют соблюдать простые правила: при поступлении необычной просьбы стоит самому перезвонить этому человеку или связаться с ним через альтернативный канал, чтобы убедиться, что это действительно он; в разговоре можно задать человеку вопрос, ответа на который точно нет в вашей переписке в мессенджерах или соцсетях и потому его не могут знать посторонние; важно настроить во всех приложениях двухфакторную аутентификацию и не передавать третьим лицам свои персональные данные или коды из СМС, чтобы избежать захвата ваших аккаунтах в мессенджерах для последующей генерации дипфейков с вашим участием.

Другим немаловажным риском, который порождён искусственным интеллектом, является возможное снижение качества образования и профессиональной подготовки. Ведь предприимчивые школьники и студенты всё чаще обращаются к чат-ботам за ответами на вопросы из контрольных или написанием целых дипломных и курсовых работ. Большой резонанс в прессе вызвала новость о том, что выпускник РГГУ смог защитить диплом, значительную часть которого за него написал ChatGPT. Молодой человек рассказал, что на большую научную работу он потратил меньше суток, а преподаватели, которые проводили защиту, ничего необычного не заметили. В РГГУ в итоге решили не лишать выпускника диплома, однако назвали ИИ новым вызовом для системы образования и призвали ограничить доступ к ChatGPT и другим подобным ресурсам в образовательных целях.

Вице-спикер Госдумы Владислав Даванков ранее предложил отменить домашние задания для школьников, поскольку без контроля со стороны учителя его выполнение зачастую превращается в бессмысленное списывание из интернета. Переход от обычных сайтов с базой решений к ИИ-чатам усугубил проблему, поскольку теперь школьник может не только быстро найти ответ, но и поручить алгоритму подробно расписать решение любым доступным способом. Глава Рособрнадзора Анзор Музаев недавно подтвердил, что домашнее задание в нынешнем формате практически утратило смысл. Учителя предлагают в качестве альтернативы ввести нечто вроде продлёнки для выполнения заданий в стенах школы, однако это потребует дополнительных рабочих часов педагогов и приведёт к тому, что старшеклассники будут проводить в школе чуть ли не весь световой день. Другой вариант – адаптировать весь образовательный процесс к новым вызовом и либо вообще отказаться от домашних заданий, либо сделать их более творческими и менее доступными для компьютерных алгоритмов. Но для этого нужно больше времени, чтобы скорректировать образовательные стандарты и переподготовить учителей. А ИИ в это время продолжит бурно развиваться.

Аналогичная проблема существует и для многих профессий, где ИИ не только помогает, но и служит одной из причин падения квалификации. Основатель объединенной редакции сетевых изданий «Московская медиагруппа» Валерий Ивановский разобрал этот риск на примере журналистики. Несмотря на то, что аудитория демонстрирует меньше доверия к написанным нейросетями материалам, некоторые крупные медиа уже задумываются о замене части сотрудников на ИИ. Валерий Ивановский выразил уверенность, что делегирование важных функций нейросетям неизбежно приведёт к накоплению ошибок и слому системы. В случае с журналистикой ИИ не способен анализировать информацию с учётом контекста ситуации и с точки зрения решения тех практических задач, которые стоят перед человеком. Поэтому написанные искусственным интеллектом тексты не только стилистически непримечательны, но и некомпетентны. К помощи ИИ обычно прибегают сотрудники, неуверенные в собственных знаниях и навыках, но тем самым вместо повышения собственной квалификации они выбирают дальнейший регресс. 

Можно найти много прогнозов о том, как ИИ полностью возьмёт на себя выполнения многих задач и лишит миллионы людей рабочих мест. Однако ряд исследований, включая опрос ОЭСР, пока не нашли реальных доказательств этим утверждениям. Более того, все предыдущие технологические революции действительно приводили к трансформации рынка труда, но само по себе количество доступных рабочих мест только росло. Нет оснований полагать, что так не будет и в эпоху ИИ. Правда, характер востребованной работы снова изменится. И практика показывает, что выигрывать конкуренцию за хорошую работу будут те, кто сумеет воспользоваться преимуществами искусственного интеллекта, но не поддастся соблазну самому только получать зарплату, а обязанности отдать на откуп нейросетям. Другие вышеперечисленные риски, как и в случае с остальными современными технологиями, пока также выглядят вполне управляемыми, хотя им стоит уделять внимание как специалистов, так и простых пользователей.

Автор: Алексей Черников
ТеГИ
ИИ, риски, нейросеть, искусственный интеллект
Похожие новости