Бывший замглавы Минобороны США Роберт Уорк считает, что применение систем искусственного интеллекта при принятии решения о нанесении ядерного удара может закончиться крайне плачевно.
Эксперт пояснил, что такие системы приводятся в действие при определенных показателях и параметрах, передает Breaking Defense. При этом искусственный интеллект может принять не представляющие на самом деле угрозу факторы как потенциальную опасность.
В частности, Уорк приводит в качестве примера сейсмическую активность, которую система может квалифицировать как ядерные взрывы.
Также существует опасность применения искусственного интеллекта в рамках анализа разведданных и в системах раннего предупреждения, сказал бывший замминистра.
«Представьте, система искусственного интеллекта в командном центре китайских войск, проанализировав оперативные данные, заявляет, что США готовятся нанести удар по Китаю и рекомендует нанести превентивный удар», - привел пример Уорк.
По его словам, технология искусственного интеллекта, безусловно, является крайне полезной для военных. Однако в контроле ядерного вооружения использовать ее нельзя.