«Пересадит всем раковые клетки». Угрозы искусственного интеллекта

В России приняли Кодекс этики искусственного интеллекта. Этот документ, разработанный при участии Аналитического центра при Правительстве РФ и Минэкономразвития, должен стать руководством для тех, кто занимается созданием «умных» систем. Свои подписи под ним поставили представители ведущих российских компаний в области ИИ — «Яндекса», «Сбера», «Росатома», «Ростелекома» и других.

   
   

Сейчас уже трудно найти сферу, где бы не применялись нейросети и алгоритмы машинного обучения. Между тем, всё громче звучат голоса экспертов, предупреждающие об угрозах, которые несут человечеству широко внедряемые системы искусственного интеллекта. Главный страх связан с тем, что они развиваются слишком быстро и скоро будут окружать нас повсюду.

Тренд ближайшего будущего – коботы

За дверью с надписью «Бульвар ЦКП» открывается длинный коридор. Павел Кривозубов, руководитель направления «Робототехника и искусственный интеллект» фонда «Сколково», ведёт меня по этому «бульвару». Слева — офисы резидентов технопарка, справа — ряд цехов с 3D-принтерами, роботами, испытательными камерами и аппаратами, выглядящими, словно декорации к фантастическим фильмам. 

ЦКП — это Центр коллективного пользования. «Такой хак-спейс, где наши резиденты разрабатывают свои продукты», — поясняет Кривозубов. В детстве он читал много фантастики, в том числе Айзека Азимова, чьё имя обычно упоминают, когда задаются вопросом, может ли искусственный интеллект нанести вред человеку. В 1942 году в рассказе «Хоровод» Азимов сформулировал знаменитые «Три закона робототехники» — своего рода нравственный кодекс поведения для машин. 79 лет спустя мы живём в мире, где эти три закона действуют в реальности: роботы и искусственный интеллект существуют с нами бок о бок.

«Изначально это был плод фантазии писателя, но современные разработчики в том или ином виде эти правила учитывают. Ведь робот — это то, что ты в него заложишь, — говорит Павел Кривозубов.— Теперь идеи, высказанные фантастами, тем же Азимовым, начинают сбываться, а роботы становятся всё более умными. Тренд ближайшего будущего — коллаборативные роботы, или коботы. Они оснащены таким программным обеспечением и датчиками, что, увидев человека в зоне своего действия, останавливаются или меняют траекторию. Либо совершают какие-то совместные действия с человеком, не нанося при этом ему вред».

Существует каноническое определение искусственного интеллекта: это программы и аппаратные компоненты, которые способны обучаться и базируются на сложных математических решениях. Но можно трактовать понятие шире: ИИ — это всё то, что думает за нас, то есть освобождает наши нейроны, реализуя мыслительный процесс на базе битов внутри вычислительных систем. Навигатор в вашем смартфоне, прокладывающий оптимальный маршрут, Алиса или любой другой голосовой помощник, пытающийся развлечь вас анекдотом, — это искусственный интеллект. И с каждым годом его вокруг нас будет становиться всё больше. Финансовые операции, шопинг, безопасность, системы распознавания — все это будет и дальше автоматизироваться и все больше наполняться «умными» алгоритмами.

Будет эволюционировать и размножаться

Системы, способные самообучаться и совершенствоваться без участия человека — это, конечно, здорово, но откуда мы знаем, что они будут совершенствоваться в нужном нам направлении? А точнее — том направлении, которое мы считаем «моральным»?

   
   

Примеров, когда ИИ ошибался или провоцировал сомнительные с точки зрения морали ситуации, накопилось немало, и АиФ.ru о них уже писал. Пока это больше похоже на недоразумения и поводы для шуток, тем не менее многие страны приняли у себя концепции развития ИИ, и одним из первых пунктов в них прописана необходимость этических ориентиров, которые позволят предотвращать ошибки. ЮНЕСКО в прошлом году разработало международные рекомендации по этике ИИ. Не исключено, что их ратифицируют уже до конца этого года.

Один из принципов действия ИИ — его постоянное обучение. Оно происходит автоматически: система анализирует огромный массив данных (например, опыт «предшественников»), за счёт чего растёт и развивается. Недавно учёные Эдинбургского университета объявили, что они создали ИИ, который способен эволюционировать в соответствии с теорией Дарвина. Он будет адаптироваться к меняющимся условиям и передавать новые навыки (знания) в следующие поколения, отбирая те из них, которые имеют больше шансов на выживание. Как сообщают исследователи, этот ИИ сможет «размножаться», производя себе подобных роботов без всякого участия человека. Процесс будет осуществляться с помощью 3D-принтера, к которому подключена система. Разработчики хотят добиться полной автономии в жизненном цикле роботов и предполагают, что они найдут применение на других планетах, которые человечество собирается колонизировать, или на дне океана, куда люди добраться тоже не могут.

Все идет к тому, что вскоре машины начнут превосходить человека не только по способности адаптироваться к экстремальным условиям, но и по интеллекту. Специалисты говорят о появлении так называемого «сильного» ИИ. Он фактически будет способен мыслить и осознавать себя отдельной личностью. А чтобы ему проще было добиться этого, учёные разрабатывают цифровой прототип психики для роботов. Суть в том, что они должны обучаться не отдельным действиям, а их наиболее полезным комбинациям. Такой механизм можно сравнить с реальным планированием поведения людей.

«Это огромный ложный бог»

В недавнем интервью The Guardian британский специалист в области искусственного интеллекта, профессор Стюарт Рассел заявил, что экспертное сообщество само напугано теми успехами, которых оно добилось в сфере ИИ. Он сравнил этот прогресс с созданием атомной бомбы.

«Сообщество ещё не привыкло к факту, что оно стало оказывать очень большое влияние на реальный мир, — говорит Рассел. — На протяжении большей части истории нашей отрасли такого не было: мы просто сидели в лабораториях, что-то разрабатывали, пытались сделать так, чтобы оно заработало, но чаще всего — впустую. Поэтому вопрос реального воздействия на мир был совершенно неуместным. И вот теперь мы видим, что искусственный интеллект проник во многие сферы жизни, от поисковиков до банков, и, похоже, ещё в этом веке будут изобретены машины, превосходящие человека по интеллекту. Так считают почти все эксперты в этой области».

По мнению Стюарта Рассела, необходимо срочно вводить контроль над разработками «сильного» ИИ. Да и с теми алгоритмами, что уже применяются, нужно быть осторожнее. Например, не стоит рассчитывать (и тем более ставить ему такую задачу), что ИИ вот-вот решит проблему диагностики и лечения онкологических заболеваний. «Наоборот, он, скорее всего, найдёт способ пересадить раковые клетки всему человечеству, чтобы провести миллионы экспериментов одновременно, используя всех нас для своего обучения, как подопытных свинок, — объясняет профессор. — А всё потому, что он будет стремиться решить задачу, которую мы перед ним поставили, но при этом забыли уточнить, что нельзя проводить эксперименты на людях и много чего ещё».

«Умные» алгоритмы уже вовсю заправляют в социальных сетях, решая, что и как могут писать люди, что им нужно читать и смотреть. А ведь этот ИИ нельзя назвать «сильным», его функции — контроль и выдача рекомендаций. Что же будет дальше?

Марк Цукерберг объявил о создании собственной метавселенной, в которой реальный мир сольётся с виртуальным. Но ведь и там распоряжаться всем будет искусственный интеллект, логика которого для нас может быть непонятна, а мораль — неприемлема. Эрик Шмидт, когда-то возглавлявший совет директоров Google, высказывает озабоченность по этому поводу на страницах The New York Times. Он предупреждает, что ИИ, который будет управлять вселенной Meta, может вступить с человеком в нездоровые, паразитические отношения и называет его «огромным ложным богом».

«Итак, через несколько лет люди предпочтут проводить больше времени в очках в метавселенной. Но кто там будет устанавливать правила? Это будет повсюду, но это необязательно будет лучшим для человеческого общества, — рассуждает Шмидт. — Как, например, будет выглядеть лучший друг с искусственным интеллектом внутри, особенно для ребёнка? Мы не знаем».