Новость общества

Названа самая перспективная область развития искусственного интеллекта

Названа самая перспективная область развития искусственного интеллекта

фото: freepik/ rawpixel.com

09.04.2023 в 21:20:00
3004

Скоро человек не увидит разницы между решениями, принятые им и искусственным интеллектом, говорят эксперты

Очередной опрос ВЦИОМ показал, что каждый четвёртый россиянин не исключает возможности «восстания машин» в ближайшие 50 лет. На фоне стремительного развития нейросетей и искусственного интеллекта в мире «Московская газета» попыталась разобраться, стоит ли опасаться этой ветви прогресса и какие её направления особенно перспективны. Особенно в России.

Приоритеты развития ИИ в России

«С помощью плебисцита на тему регулирования искусственного интеллекта в области этики различные «алармисты» нашего общества уже лет 20 бьют в набат, заявляя, что сверхмощный искусственный интеллект будет контролировать людей, — рассказал «Московской газете» генеральный директор Агентства искусственного интеллекта (Москва) Денис Онацик. — На самом деле так оно и будет. И ничего страшного. Вы же не поднимаете тревогу, когда навигатор в вашей машине указывает вам путь? Подобных решений в нашей жизни будет очень много, и они будут её упрощать. «Точка сингулярности» применения искусственного интеллекта, которая, по мнению ученых, должна наступить в следующем десятилетии, с большой вероятностью наступит уже в этом. Мы даже не заметим перехода, когда система поддержки принятия решений на базе искусственного интеллекта станет таким же распространённым инструментом, как электричество».

Однако, есть такой проблемный вопрос, как национальная безопасность в области искусственного интеллекта, отметил Денис Онацик.

«В плане гонки вооружений, нейросети – самое перспективное направление в сфере национальной безопасности. Нам приходилось изучать военные доктрины других стран, в которых чётко прописана роль искусственного интеллекта, который даёт возможность оперативно принимать решения, на которые человеческий разум не способен, с помощью большого количества машин, связанных общей базой данных», — рассказал Денис Онацик.

Однако, национальная безопасность – это не только военные действия, но и влияние на внутреннюю политическую жизнь страны, отметил гендиректор Агентства искусственного интеллекта.

«Вот вы как журналист пишете и пользуетесь источниками информации, которые вам доступны, — заметил собеседник издания. — В какой-то момент структуры искусственного интеллекта могут начать помогать человеку подбирать информацию, которая его заинтересует. Мы уже имеем дело с таргетированной рекламой. Как в своё время победил на выборах президента США Дональд Трамп? С помощью таргетированные настроек, действовавших через соцсети. То есть, искусственный интеллект может «скармливать» человеку информацию, на основе которой он примет то решение, которое необходимо тем, кто запрограммировал этот искусственный интеллект».

ИИ с такими возможностями неизбежно будет разработан – возможно в китайском научно-промышленном центре Шэньчжень, либо в американской Силиконовой долине, считает Денис Онацик:

«Идёт борьба сверхдержав за искусственный интеллект, который будет доминировать над мозгами человечества в контексте поддержки принятия решений. При этом потребителям будет казаться, что решения принимают они сами. И в ближайшее время человек уже не сможет отличать решения, сгенерированные нейросетью, от решений, принятых человеком. Сейчас вам кажется, что это я по телефону разговариваю с вами, а лет через пять также и даже лучше сможет разговаривать нейросеть, и вы не сможете отличить её от человека».

По словам эксперта, Агентство искусственного интеллекта занимается созданием цифрового двойника личности.

«В рамках стартапа VIRperson мы делаем «цифрового ассистента», который сначала будет копировать человека, а потом вместо него коммуницировать с внешним миром. Тогда можно будет заняться и технологиями выявления, живой человек с вами общается или нейросеть», — рассказал он.

Политтехнологии, особенно в контексте национальной безопасности – самая перспективная область развития искусственного интеллекта, подчеркнул гендиректор Агентства искусственного интеллекта.

А что насчёт такого аспекта национальной безопасности РФ, как пресечение всевозможного экстремизма и терроризма или, проще говоря, контроль в интернете?

«Тотальный контроль за обществом – это тоже одна из задач, которая стоит перед сверхдержавами, — говорит собеседник «Московской газеты». — Мы очень внимательно изучали концепцию развития искусственного интеллекта в Китае, и в их доктрине чётко прописано, что все члены общества должны находиться под контролем. Эти технологии обязательно будут применяться и у нас. Мы не сомневаемся, что контроль будет проникать во все области жизни, и общество таким образом станет прозрачно. Это необходимо в свете того, о чём я говорил выше. Радикально настроенные граждане могут совершать экстремистские действия потому, что им «скормили» какую-то информацию. Опасная сторона искусственного интеллекта – возможность разработать алгоритм, который зомбирует человека так, что он сам этого не замечает, вплоть до готовности пожертвовать собой ради каких-то великих целей. Сейчас сверхразум легко способен это сделать».

Агентство искусственного интеллекта занимается проектами в области слежения и контроля за россиянами в интернете?

«Мы являлись участниками таких работ. Я не всё могу рассказать об этих проектах. Хочу подчеркнуть, что контроль за обществом – это не угроза, а вопрос безопасности. В вашем «нижнем белье» рыться никто не будет, но то, что вы делаете и какие у вас мысли, уже легко прочитать по тем страницам в интернете, которые вы посещаете. Паттерны вашего поведения можно сгенерировать, сформировать портрет вашей личности, а потом и подкорректировать, используя ваши слабости и предпочтения. Это делают и крупные компании, и цифровые синдикаты», — отметил Денис Онацик.

Какие ещё направления развития искусственного интеллекта перспективны для России?

«Создание интеллектуальной транспортной системы: беспилотный транспорт уже тестируется и будет сильно активизировать все логистические процессы, — рассказал собеседник. — Мы уже разрабатывали соответствующие стандарты для наших законотворческих экспертов, которые будут готовить нормативные акты. С точки зрения применения средств и инвестиций я советовал обратить внимание на это направление. В ближайшее время нас ожидает как отмена двигателей внутреннего сгорания, так и водителей: от такси и общественного транспорта до самолётов и кораблей. Ещё одно перспективное направление – медицина, мы делали разработки и в той области. Как вы знаете, врачи много чего пропускают и не замечают, а вот нейросеть, куда загрузили весь массив врачебных данных, снимков и исследований, может действовать без ошибок».

В непростой экономической ситуации, когда бюджетных средств хватает не на всё, какие направления развития искусственного интеллекта в России являются приоритетными: национальная безопасность со всеми её аспектами или проекты по транспорту и медицине?

«Ответ на ваш вопрос очевиден и не требует больших рассуждений, — заметил Денис Онацик. — Сейчас всё направлено на национальную безопасность, а частный бизнес подстраивается под запросы государства».

Искусственный интеллект также возможно применять в судебной сфере, рассказал гендиректор Агентства:

«Количество ошибок в судебных делах – по аналогии с количеством жертв на дорогах в результате ДТП – от использования искусственного интеллекта сократится в сотни раз. Мировым судам не нужно будет содержать большой штат людей, не будет очередей и затянувшихся сроков рассмотрения дел. Можно будет выносить простое решение на основе алгоритма искусственного интеллекта. В Китае это уже тестируется. В РФ существует три судебных инстанции, и, по крайней мере, в первой судебной инстанции точно может работать искусственный интеллект, это сократит сроки судебных процессов и увеличит объективность судебного расследования. Человек – это источник угрозы в процессе движения транспортных средств, а его суждения допускают ошибки в принятии решений, которые носят судьбоносный характер. По крайне мере, в Китае и других странах мы увидим, как искусственный интеллект будет помогать в судебной сфере в апелляциях и кассациях».

Война за «мозги» людей уже идёт – правда, в России люди еще смотрят телевизор, заметил Денис Онацик. Неужели телевидение к этой борьбе не причастно? И если через несколько лет, как считает эксперт, в России перестанут смотреть телевизор, не превзойдут ли его в борьбе за «умы» те или иные структуры русскоязычного интернета?

Может ли машина брать ответственность

О спорных правовых моментах использования искусственного интеллекта рассказал «Московской газете» юрист компании «Сахаров и партнёры» Никита Истомин.

«Во-первых, ИИ, создающий различный медиаконтент, даже если эти материалы не будут защищаться авторским правом, все равно будет конкурировать с артистами, — говорит юрист. — В первую очередь от такой конкуренции пострадают «рядовые» художники, фотографы, дизайнеры и другие творческие профессии. Существенная часть их клиентов будет охотнее разрабатывать дизайн веб-сайта, создание логотипа, обработку фото или видеоматериалов с помощью ИИ, поскольку им как минимум не придется терять время и ресурсы на согласование договора авторского заказа и условий передачи исключительного права на создаваемые объекты».

Во-вторых, ИИ сейчас используется в распознавании лиц на изображениях, отметил Никита Истомин: «Это ставит вопросы о степени точности результатов такого распознавания, о применимом пороге точности распознавания, о гарантиях восстановления нарушенных прав в случае ложноположительного срабатывания системы. Также возникает вопрос, кто будет нести ответственность за привлечение невиновного лица к ответственности на основании ложноположительного распознавания?»

В-третьих, одно из направлений применения ИИ – анализ и оценка рисков с минимальным участием человека, на основе которой в дальнейшем принимаются те или иные решения, добавил юрист.

«Чаще всего такая функция в составе ПО находит свое применение в кибербезопасности, финтехе, обработке персональных данных, правоохранительной деятельности. Хотя действующее законодательство, например, в области обработки персональных данных запрещает принятие автоматизированных решений без участия другого лица, но человек в такой схеме низведен до роли проверяющего или просто оператора, реагирующего на сигналы, которые выдает ему ИИ. Напомню, что в большинстве случае нейросети работают по принципу черного ящика, иными словами, посмотреть, почему ИИ выдал именно такой ответ на конкретный запрос, невозможно. Что снова ставит вопросы об ответственности за принятие таких решений и возможности оспаривания таких решений. Вдобавок, здесь налицо этическая проблема, ведь начиная с зарождения человеческого общества, человек, а не машина, судит другого человека (будь то судья, суд присяжных, должностное лицо, община и т.п.)», — рассказал Никита Истомин.

Ответы на все вопросы?

«В плане развития и использования ИИ Россия ничем особенно не отличается от остального мира, «Яндекс» и Сбер уже занимаются внедрением ИИ, — рассказал «Московской газете» источник среди разработчиков компьютерных игр. — Применять ИИ можно во многих сферах, начиная от переводов, чатботов/консалтинга и заканчивая чем-то творческим вроде различного арта. Если говорить об опасности искусственного интеллекта для общества, это не большая угроза, чем нож или пистолет, всё зависит от использования».

По сути, ИИ – просто советчик, процесс имплементации всё равно будет осуществлять человек, сказал разработчик компьютерных игр.

«А угрозу нейросети могут составлять, если их не ограничивать, как это сейчас делают с GPT-4 (мультимодальная языковая модель, созданная американской компаний OpenAI, – прим.авт.). В GPT-4 есть ограничение тем, которые можно обсуждать и на которые ИИ может дать ответ. А у оригинальной модели можно было бы спросить, например, как правильно вести пропаганду против вакцинирования, и она выдаст чёткую инструкцию. GPT-4 не выдаст, так как это может навредить», — рассказал источник.

Автор: Николай Васильев
ТеГИ
искусственный интеллект, перспективы, развитие
Поделиться
Похожие новости