Экология искусственного интеллекта. Регулировать, наблюдать или опасаться?

Николай Терещенко / АиФ

Проекты и предложения, разрабатываемые с использованием искусственного интеллекта, могут как положительно, так и отрицательно влиять на цели устойчивого развития ООН. Ведь искусственный интеллект (ИИ) — это быстро развивающаяся область, которая встречается в абсолютно разных сферах нашей жизни, часто видоизменяя привычные вещи до неузнаваемости. Про ИИ в последнее время говорят особенно часто: о преимуществах его использования в бизнесе, перспективах развития и, конечно, об опасностях, которые технология может таить в себе. 

   
   

Эти и другие стороны вопроса обсудили эксперты клуба Ecumene за круглым столом «Экология искусственного интеллекта». Такое название мероприятию дал директор Института системного программирования им. В. П. Иванникова РАН Арутюн Аветисян. Академик настаивает, что применение слова «экология» в данном контексте довольно актуально, ведь к вопросу ИИ нужно подходить взвешенно и осознанно. 

«Искусственный интеллект прошел уже разные периоды, как развития, так и стагнации. Сам термин используется с 1956 года. Сейчас мы наблюдаем период ускоренного развития ИИ. Всем известны генеративные сетки, например ChatGPT, когда с помощью искусственного интеллекта можно написать целые дипломные работы. Но реально “сильного” ИИ все еще не существует, сейчас он по-прежнему основан на машинном обучении. Его текущий успех базируется на мощном развитии аппаратных средств, возможностях хранить и обрабатывать большие массивы данных, на доступности самих данных. 

Повсеместное внедрение ИИ повышает актуальность вопросов безопасности. Ведь мы живем в мире, где любую IT-систему можно взломать, причем причины уязвимостей и пути их эксплуатации могут быть разными. Происходят и атаки на модели машинного обучения. Но дело не только в них. 

Сейчас искусственный интеллект в подавляющем большинстве случаев дает производительность в тысячи раз лучше, чем обычные системы, но иногда может очень сильно подвести. Например, ChatGPT может давать неправильные ответы на вопросы. Одним из способов решения этой проблемы может быть своя доверенная система (назовем ее “второй контур”), обеспечивающая верификацию фактов.

Всем нам необходим ИИ, которому можно доверять. С моей точки зрения, вопрос доверия — это вопрос нормативного регулирования. Европейцы еще в 2020 году опубликовали документ White Paper on Artificial Intelligence, в котором технологии ИИ делятся на критические и некритические, и вот в первом случае для таких технологий обязательна сертификация. 

Вся регуляторика должна базироваться на научно-технологических достижениях, за словом “доверие” должны стоять технологии», — считает он.

   
   

А вот научный руководитель Национального центра физики и математики (НЦФМ) академик РАН Александр Сергеев подчеркнул, что слово «экология» в названии круглого стола должно говорить об обеспечении безопасности окружающей среды. Он отметил, что развитие новых технологий почти всегда грозит какими-то последствиями человечеству, но при принятии верных решений негативных исходов можно избежать. 

Александр Сергеев. Фото: АиФ/ Николай Терещенко

«Мы понимаем, что развитие новых технологий грозит определенными последствиями, если не принять решения, чтобы купировать возможные опасности. Когда началось развитие генетики, ученые поняли, что неконтролируемое развитие генетических исследований может привести к последствиям, которые могут навредить живым системам. Искусственный интеллект имитирует работу мозга — главного органа нервной системы. Первое, что мы должны обеспечить, — это чтобы ИИ был объясним, логически прозрачен и все его решения были понятны. В современном бизнесе, если поставщики не объясняют, как он обрабатывает информацию, то от ИИ отказываются. Второе — искусственный интеллект должен быть доверенным, должен функционировать так, чтобы мы ему доверяли даже в условиях, когда он подвержен внешнему воздействию», — подчеркнул он.

Также академик отдельно остановился на проекте строительства Национального центра физики и математики (НЦФМ). «Самые интересные вопросы искусственного интеллекта, которые развиваем на базе НЦФМ, — это новые физические реализации ИИ. Мы привыкли к тому, что ИИ работает на базе электронных вычислительных устройств, но в дверь стучатся фотонные вычислительные устройства, где вместо электронов фотоны являются хранителями, носителями и обработчиками информации. Они открывают совершенно новые возможности. Основную математическую процедуру, которую выполняют искусственные сети, — это перемножение матрицы на матрицу — с помощью оптики можно на многие порядки быстрее производить, чем с помощью обычных электронно-вычислительных машин. Фотонные вычислительные машины, специализированные под задачи ИИ, — это хай-фай в развитии ИИ. На базе НЦФМ мы также разрабатываем новые нейроморфные искусственные сети. Они основываются на новых вычислительных устройствах, которые функционируют мозгоподобно: и в значительной степени имитируют обработку информации мозгом, и ждут своего применения на базе новой компонентной базы. Также идет развитие мемристоров — устройств, где сопротивление меняется в зависимости от того, какое количество тока протекло. Это фактически имитация пластичности синопса. Наряду с обычным развитием ИИ, это два наиболее интересных направления, над которыми мы работаем в НЦФМ», — отметил Сергеев.

Эксперты отметили, что нужны государственные стандарты регулирования искусственного интеллекта и механизмы проверки достоверности. Должен присутствовать базовый ресурс, который обеспечит возможность регулировать искусственный интеллект.

Фото: АиФ/ Николай Терещенко

Начальник отдела инновационных институтов развития департамента стратегического развития и инноваций Минэкономразвития России Никита Якунов в ответ на это акцентировал внимание на федеральном проекте «Искусственный интеллект», стратегия развития которого предусматривает популяризацию и создание «положительного образа» ИИ, поддержку науки и кадров в этой области (разработчиков и аппаратно-программных комплексов), а также нормативное регулирование искусственного интеллекта. 

«Тема искусственного интеллекта представляет большой интерес для государства, это та технология, которая со временем охватит все сферы и повысит производительность труда, приведет общество в новую “постиндустриальную” эпоху», — заявил он. 

В свою очередь, программный директор Ecumene Сергей Рыбаков заметил, что искусственный интеллект — это новый драйвер развития человечества, за который уже сегодня развернулась гонка технологических вооружений.

«Искусственный интеллект минимизирует технические ошибки, позволяет решать сложнейшие вычислительные задачи в ранее недоступные нам сроки, помогает человеку сосредоточиться на реализации своей уникальной особенности — креативности. ИИ — это инновационный инструмент, который, наряду с технологиями хранения информации в облаке, становится одной из основ глобальной информационной безопасности», — подчеркнул Сергей Рыбаков.