Служебные документы агентства по кибербезопасности США оказались слиты в ChatGPT. Их туда загрузил глава ведомства Мадху Готтумуккала. Утечку засекли системы безопасности самой организации. Теперь специалисты уверяют, что ничего сверхсекретного в широкий доступ не попало. Но возникает вопрос: если даже глава специального агентства может допустить такую ошибку, то что же будет с нашими данными — персональными, финансовыми, медицинскими, — если мы вынуждены доверять их обработку самым разным организациям, а повсюду внедряют тот самый ИИ? Может, теперь каждый ушлый айтишник в состоянии узнать, кто и что заказывает, например, на маркетплейсе? Или подсмотреть записи в медкарте, а потом всем рассказать, кто и чем болеет?
Сливают люди
Утечки данных были и до широкого распространения ИИ, их главная причина — не технологии, а человеческий фактор, говорит Кожевникова. Они происходили по ошибке или по злому умыслу. И тут никакой стопроцентной защиты не даст ни одна технология, считает она.
«Общедоступный ИИ можно безопасно использовать для корпоративных целей, если не загружать в нейросеть конфиденциальную информацию или ту, которая представляет собой коммерческую тайну, — добавляет она. — Точно не стоит делиться с открытыми языковыми моделями персональными данными сотрудников: это запрещено законом. Зато без всякого риска можно попросить нейросеть создать образовательный курс по темам, которые никак не связаны с конфиденциальной информацией: обучение по охране труда, навыкам продаж или по искусству проведения переговоров. Или можно использовать ИИ для перевода открытых научных или образовательных материалов с иностранных языков. Те компании, которым все-таки нужен ИИ для работы с чувствительной информацией, разрабатывают свои внутренние нейросети, у которых нет выхода во внешний мир, и которые могут обеспечить конфиденциальность».
В идеале система должна работать так, чтобы ИИ был «вторым пилотом» при человеке, уверена Кожевникова. Причем работающий с таким помощником сотрудник должен быть хорошо подготовлен и мотивирован на честную работу без ошибок. Как минимум — приличной зарплатой.
Техника блокировки
Пока все утечки, связанные с использованием нейросетей и ИИ, происходят в основном
«Например, был случай, когда люди делились ссылками на свои диалоги с ChatGPT с друзьями, а потом эти ссылки стали индексироваться в поисковике Google, — вспоминает он. — Как только эту лазейку обнаружили, ее сразу же прикрыли».
Чтобы данные человека из нейросети попали в общий доступ, ей надо сначала на них обучиться, продолжает эксперт. Только после этого возможна утечка. В России обучением нейросетей могут себе позволить заниматься лишь самые крупные технологические компании, где с квалификацией персонала и дисциплиной проблем быть не должно, считает он.
«Компании могут передавать нейросетям лишь те сведения о клиентах, на использование которых таким образом было получено согласие, обязательно читайте эти бумаги, когда в них просят поставить подпись, — предупреждает Назаров. — В случае если компания предусмотрела использование персональных данных для обучения нейросетей, и человек на это согласился, то все законно, и говорить об утечке нельзя. Ответственные компании, однако, будут стремиться использовать обезличенные данные — такие, в которых реальные имена и фамилии людей заменены на вымышленные».