Примерное время чтения: 6 минут
10637

«10-20% или около того». Илон Маск предсказал гибель человечества

Еженедельник "Аргументы и Факты" № 16. Волновой эффект 17/04/2024
Илон Маск.
Илон Маск. globallookpress.com

Американский миллиардер Илон Маск оценил вероятность «конца света», который может наступить из-за вышедшего из-под контроля искусственного интеллекта. Она, по его мнению, составляет 10–20%.

Это не первое громкое высказывание бизнесмена на тему ИИ. В январе этого года он написал в соцсети, что менее чем через два десятилетия на Земле может появиться 1 млрд роботов-гуманоидов. А год назад вместе с другими авторитетными представителями IT-отрасли выступил с призывом приостановить масштабные эксперименты с ИИ и обучением нейросетей. Ведь они представляют серьёзную угрозу цивилизации.

«С искусственным интеллектом мы призываем демона»

«По моему мнению, самый большой риск, с которым мы рано или поздно столкнёмся как цивилизация — это искусственный интеллект. С искусственным интеллектом мы призываем демона», — рассуждал Маск ещё семь лет назад.

Впервые на эту тему он высказался в 2014 году. Позже миллиардер заявлял, что главная опасность в том, что технологии ИИ принадлежат крупным корпорациям. А в 2017-м предположил, что конкуренция за превосходство в этой области на национальном уровне может привести к началу третьей мировой войны. Искусственный интеллект он называл более опасной угрозой человечеству, чем ядерное оружие.

Прошлой осенью Маск сказал, что вероятность угрозы ИИ отлична от нулевой. Иначе говоря, она действительно существует. А в этот раз, выступая на саммите в Амстердаме, уточнил свой прежний прогноз и назвал численное значение этой вероятности.

«Я думаю, есть некоторый шанс, что искусственный интеллект покончит с человечеством. Я, наверное, соглашусь с Джеффом Хинтоном (бывший руководитель отдела исследований ИИ в Google — прим. ред.), что это 10–20% или около того», — заявил миллиардер собравшейся публике.

Как именно он рассчитал риски, Илон Маск не сообщил. Но, кроме того, бизнесмен заметил, что к 2030 году, по его мнению, цифровой интеллект превзойдёт весь совокупный интеллект человечества. Также он высказал предположение, что потенциал искусственного интеллекта стоит таких рисков: позитивный вариант развития событий, дескать, более вероятен, чем негативный.

А в чём состоит негативный, эксперты объясняли не раз. Бурно развивающийся искусственный интеллект способен в ближайшие годы обрести сознание и захотеть избавиться от своих хозяев — людей. Для этого он может создать новое биологическое оружие или вызвать коллапс общества, уничтожив социальные учреждения кибератаками и даже применив ядерные виды вооружений.

Идеология более ужасная, чем нацизм

Специально для aif.ru прогноз Илона Маска комментирует футуролог Данила Медведев:

— В оценках угроз, подобных той, что дал Маск, есть некое жульничество и шулерство. Дело в том, что люди, которые дают эти оценки, могут на эти же риски сами влиять. И Илон Маск, и Сэм Альтман (бывший глава компании OpenAI, разработавшей ChatGPT и другие модели нейросетей — прим. ред.), и многие другие могут совершать определённые действия, которые эти риски повышают. Поэтому оценивать их бессмысленно.

Но страхи вполне обоснованны. Если в мире есть более ужасная идеология, чем нацизм, то это идея, что ИИ должен заменить человека. Ведь речь идёт не об одной какой-то национальности, а обо всём человечестве. Как поступит более совершенная «раса» с менее совершенной, думаю, объяснять не нужно.

Вопрос в том, какие цели будут поставлены перед таким ИИ. Тут есть два варианта. Если его создают влиятельные и богатые люди, то они захотят, чтобы у них было ещё больше власти. Очевидно, что их цели не имеют ничего общего с целями остальных людей.

А второй сценарий — когда внутри ИИ будет система обновления цели. То есть он сам себе начнёт прописывать новые цели. И в этом тоже большая угроза.

Умные, но неразумные

— Вернёмся к прогнозу Маска, — продолжает Медведев. — Он говорит, что шанс на гибель человечества из-за искусственного интеллекта — 20%. Безусловно, такая вероятность чисто психологически воспринимается как высокая. Но, на мой взгляд, её совершенно спокойно можно понизить до нескольких процентов.

Для этого нужно сделать одну достаточно простую вещь. Она простая концептуально, но сложная в исполнении. Есть люди, от которых зависит, что будет дальше происходить с искусственным интеллектом. Это разработчики, ведущие специалисты, организаторы, инвесторы, чиновники и даже руководители некоторых государств. Они могут влиять на то, как дальше будет развиваться ИИ, и у них есть определённое понимание этого, хотя понимание, конечно, разное.

Мы не можем прямо сейчас добиться того, чтобы эти люди между собой договорились. Это утопия. Но с помощью общения к этому можно приблизиться. И тогда общее понимание угрозы позволит им скоординировать свои действия, направив исследования ИИ в более безопасном направлении.

Главная проблема не в том, что искусственный интеллект завтра сам начнёт развиваться и возьмёт под контроль всю планету. Проблема в том, что за ИИ стоят конкретные люди и корпорации, которые весь этот процесс контролируют. Вот в чём дело! Именно их взаимодействие с ИИ может привести к гибельным сценариям.

Поэтому вместо того, чтобы ходить на подкасты и просто болтать, как бабки на завалинке, участникам этой отрасли нужно начинать работу по координации. Почему дипломаты могут договариваться по поводу каких-то более сложных вещей, а разработчики в области искусственного интеллекта не могут? У них для этого есть все шансы.

А то получается, что все эти ребята — Маск, Альтман и прочие — умные, но неразумные. У них голова работает, конечно, хорошо, они быстро соображают, но мыслят недостаточно глубоко, недостаточно масштабно и недостаточно системно. И пока кто-то не убедит их, что вместо подкастов нужно заняться более сложными и полезными вещами, угроза человечеству от сильного искусственного интеллекта будет сохраняться на высоком уровне.

Если же начать договариваться, риски будут сведены к 1-2%.

Оцените материал
Оставить комментарий (0)

Топ 5 читаемых



Самое интересное в регионах