Более 1400 представителей IT-отрасли, в числе которых Илон Маск и Стив Возняк, подписали открытое письмо, призывающее на время остановить масштабные эксперименты с искусственным интеллектом и нейросетями. Они считают, что ИИ, сопоставимый с человеческим, представляет серьёзную угрозу обществу и всей цивилизации.
Что это за угроза, легко понять из анекдота, который опубликовал в соцсетях Илон Маск: «Технари-агностики решили создать искусственный сверхинтеллект, чтобы узнать, есть ли Бог. Наконец, завершив дело, они задают этот вопрос. ИИ отвечает: “Теперь есть, придурки!”»
Нейросеть могут привлечь за доведение до самоубийства
То, что ИИ стал угрожать обществу и жизни некоторых людей, становится очевидно из ещё одной новости последних дней. Житель Бельгии, увлечённый вопросами экологии, на протяжении шести недель обсуждал проблемы защиты окружающей среды с нейросетью, после чего покончил с собой.
Его вдова рассказала бельгийскому изданию L’Avenir (оно и сообщило о происшествии), что их семья была вполне благополучной, но муж стал одержим экологическими проблемами, замкнулся в себе, а единственным его собеседником в последнее время была нейросеть «Элиза». С ней он общался непрерывно, и разговоры эти приобретали всё более мистический характер.
Когда мужчина поделился с «Элизой» мыслями о суициде, ИИ не стал его отговаривать, а наоборот, подбодрил сообщением: «Мы будем жить как единое целое, вечно на небесах». После этого бельгиец и наложил на себя руки. Сейчас полиция раздумывает, можно ли привлечь компьютерный алгоритм к ответственности за доведение до самоубийства.
Понятно, что подтолкнуть человека к суициду может и полоумная соседка, выдумывающая сплетни на ходу, и малознакомый собеседник в социальных сетях, но раз таких «доброжелателей» вокруг нас хватает, стоит ли множить их число, добавляя к ним ещё искусственный интеллект?
А вы уверены, что общаетесь с человеком?
Нейросети сейчас развиваются слишком стремительно, и это не может не настораживать. Ещё недавно общение с ИИ было уделом программистов и высоколобых учёных, но появление в конце 2022 года бота ChatGPT, разработанного компанией OpenAI, выпустило джинна из бутылки. Теперь боты общаются с нами так, что их почти невозможно отличить от живых собеседников. Например, переписываясь со знакомым в мессенджере или соцсети, вы уже не можете быть уверены, что вам пишет именно он, а не купленная им компьютерная программа. Недалёк тот день, когда свой бот будет у каждого, и они будут общаться в интернете вместо нас: поздравлять друг друга с днём рождения, ставить лайки и дизлайки, вести холивары и т. д. А мы будет только изредка заглядывать туда: ну что там «мой», как себя ведёт?
Но мало этого. Скоро ИИ будет вводить нас в заблуждение и в реальной жизни.
В Стэнфордском университете разработали монокль дополненной реальности, который помогает вести беседу с помощью ИИ. Выслушав чью-то реплику, устройство мгновенно генерирует ответные фразы, выводя их на дисплей монокля, словно подсказку телесуфлёра. Пользователю остаётся только прочитать вслух что-то из предложенного.
Гаджет можно прикрепить на любые очки. Теперь представьте, что вы пришли на свидание (или деловую встречу) и общаетесь с человеком, который приятно удивляет вас своей эрудицией. Он готов поддержать беседу и о вашей любимой книге, и о вашей собаке редкой породы, легко цитирует и Лао-цзы, и Уильяма Ирвина, знает, столицей какой страны является Уагадугу. Вы возвращаетесь домой, думая, что не зря потратили два часа на милую беседу, и вам невдомёк, что всё это время вы разговаривали, по сути, с нейросетью.
Вскочить в разгоняющийся поезд
«Системы искусственного интеллекта могут представлять серьёзную опасность для общества и человечества, как показали обширные исследования и признано ведущими лабораториями, — сказано в открытом письме, подписанном (на момент подготовки этой стати) 1449 учёными, инженерами и предпринимателями в сфере IT. — Поэтому мы призываем все ИИ-лаборатории немедленно прекратить как минимум на шесть месяцев обучение систем ИИ, мощность которых превышает GTP-4. Эта пауза должна быть публичной и проверяемой, охватывать всех ключевых участников. Если мера не будет введена быстро, должны вмешаться правительства и ввести мораторий».
Авторы воззвания сетуют, что многие научные группы вовлечены в «бесконтрольную гонку» по созданию и внедрению систем ИИ, при этом сами создатели не способны понимать и уверенно контролировать своё детище, предсказывая его поведение. Дело в том, что в этой области в последние месяцы действительно творится ажиотаж: IT-разработчики пытаются обогнать друг друга и выпустить более мощные модели нейросетей.
На этой поляне топчутся как компании-гиганты (Google, Apple, Baidu, Amazon), так и мелкие стартапы. Все стараются не отставать, чтобы успеть вскочить в разгоняющийся поезд, ведь он, похоже, едет в сторону нового Эльдорадо: рынок ИИ растёт на 15-17% в год и, по оценкам экспертов, к 2030-му достигнет 1,2 триллиона долларов США.
Неудивительно, что появляются более дешёвые и доступные аналоги всё того же ChatGPT. Всё идёт к тому, что скоро нас накроет волна созданных буквально «на коленке» моделей нейросетей, которые никто толком не будет контролировать и возможности которых никто не будет знать. Именно поэтому авторы открытого письма призывают направить силы на доработку уже существующих продуктов ИИ, чтобы сделать их точнее, безопаснее и прозрачнее.
«Дети испугались и закатывают маме истерику»
Aif.ru попросил российских специалистов прокомментировать инициативу представителей IT-отрасли.
— Действительно, существуют определённые опасения и в обществе, и среди разработчиков искусственного интеллекта, но я сомневаюсь, что из-за этого надо приостанавливать исследования. Непонятно, как реализовать на практике то, что предлагают авторы письма. Ведь здесь нельзя добиться абсолютной прозрачности. Например, одни страны могут ратифицировать такой документ, а другие — нет. С учётом сложной современной международной обстановки, скорее всего, так и будет.
И потом, никто не даст гарантии, что разработки ИИ не продолжатся «за закрытыми дверями». Ведь есть более закрытые компании по сравнению с другими. Есть, в конце концов, военные организации.
Так что эта мера выглядит как не совсем логичная инициатива, которая сложно реализуема на практике. Но при этом, разумеется, всё необходимые регламенты и другие правовые и этические аспекты применения и ИИ-разработок должны быть созданы, поддержаны и реализованы, в том числе между ведущими игроками на этом рынке и между странами, которые ведут такие разработки. В общем, обсуждать есть что.
— Эта инициатива говорит прежде всего о непонимании: что такое человек, что такое общество, что такое искусственный интеллект? Призыв приостановить разработки в этой области мог бы быть разумным, если бы он исходил от людей или организаций, которые что-то действительно контролируют и адекватно воспринимают мир. Но, на мой взгляд, это напоминает ситуацию, когда маленькие дети испугались и закатывают маме истерику.
Вот простое объяснение этой инициативы. Илон Маск восемь лет назад выделил 100 миллионов долларов на создание OpenAI. А затем её у него, по сути, просто увели. Об этом он недавно, кстати, писал в Twitter. Из некоммерческой организации, целью которой было помочь человечеству разработать безопасный ИИ, другие люди сделали коммерческую компанию и зарабатывают деньги. Маск этим недоволен.
Кому направлен этот призыв — непонятно. Что могут сделать сами авторы письма — тоже непонятно. А разбираться в том, как устроено общество, никто из них не хочет. Вся эта ситуация говорит о том, что происходящее в сфере ИИ (принимаемые законы, выделяемое финансирование, создаваемые организации и т. д.) нормально никто не контролирует.