Вероятность, что нейросети могут уничтожить человечество с провоцированием ядерной войны, крайне мала, считает руководитель аналитического центра Zecurion Владимир Ульянов.
Так эксперт в разговоре с изданием Pravda.Ru прокомментировал новость о том, что нейросеть ChaosGPT поделилась своими планами по уничтожению человечества, получив соответствующую задачу от одного из пользователей. ИИ сгенерировал публикацию, в которой упоминает «Царь-бомбу», испытанную СССР в 1961 году, и задался вопросом, что произойдет, если он сможет добраться до нее.
Ульянов уверен, что никто не даст возможность управления ядерным оружием искусственному интеллекту. Кроме того, нейросеть не действует самостоятельно, она лишь выполняет то, чему ее обучили. Поэтому корректные настройки системы не позволят причинять вред человечеству, считает аналитик.
«Что касается ядерного оружия, я полагаю, что все-таки нет, в ближайшей перспективе и даже в какой-то отдаленной среднесрочной перспективе не будет такой возможности, чтобы нейросети управляли ядерным оружием. Это не тот случай и не та необходимость, где нужны нейросети», – сказал эксперт.
Ранее глава Сбербанка Герман Греф предупредил, что в мире существует риск создания закрытого клуба крупнейших держав в сфере искусственного интеллекта.