Инструменты ИИ встречаются везде — от операционных систем и офисных пакетов до графических редакторов и чатов. Как пользоваться ChatGPT, Gemini и их многочисленными надстройками без угрозы для своей цифровой безопасности?
Эксперты «Лаборатории Касперского» подготовили несколько рекомендаций:
Фильтруйте важные данные. Политика конфиденциальности OpenAI, компании-разработчика ChatGPT, вполне недвусмысленно уведомляет, что все диалоги с чат-ботом сохраняются и могут быть использованы для нескольких целей. ИИ-ассистент может выдать кому-нибудь ваши сведения, если они покажутся ему уместными в контексте ответа. Ну а специалисты по ИБ разработали целый ряд атак (раз, два, три) для целенаправленного воровства диалогов и наверняка не остановятся на достигнутом.Поэтому помните: все, что вы напишете чат-боту, может быть использовано против вас. При общении с ИИ мы рекомендуем соблюдать меры предосторожности.
Не отправляйте чат-боту никакие персональные данные. Пароли, номера паспортов и банковских карт, адреса, телефоны, имена и другие личные данные — ваши, вашей компании, ваших клиентов, — не должны попадать в переписку с ИИ. Вместо них в запросе можно оставить несколько звездочек или пометку REDACTED.
Не загружайте документы. Многочисленные плагины и приложения-надстройки позволяют пользоваться чат-ботами для обработки документов. Возникает сильное искушение загрузить в сервис рабочий документ, чтобы, например, получить его краткое изложение. Но, загружая многостраничный документ не глядя, вы рискуете «слить» конфиденциальные данные, интеллектуальную собственность или коммерческую тайну — например, даты запуска новых продуктов или зарплаты всего отдела. А при обработке документов, присланных из внешних источников, и вовсе можно подвергнуться атаке, рассчитанной на чтение документа языковой моделью.
Используйте настройки конфиденциальности. Внимательно изучите политику конфиденциальности и доступные настройки своего поставщика языковой модели — с их помощью обычно можно минимизировать отслеживание.
Отправляете код? Почистите его от конфиденциальных данных. Отдельный совет — программистам, использующим ИИ-ассистенты для проверки и доработки кода: исключайте API-ключи, адреса серверов и другую информацию, выдающую структуру приложения и серверной инфраструктуры.
Ограничьте использование сторонних приложений и плагинов. Все вышеперечисленные рекомендации нужно применять всегда, вне зависимости от того, каким из популярных ИИ-ассистентов вы пользуетесь. Но даже этого может оказаться мало для обеспечения конфиденциальности. Использование подключаемых модулей (плагины в ChatGPT, расширения в Gemini) или отдельных приложений-надстроек создает новые типы угроз.
Плагины-исполнители требуют особого контроля. Пока мы рассуждали только о рисках, касающихся утечки информации, но это не единственная потенциальная проблема при работе с ИИ. Многие плагины способны выполнять конкретные действия по команде пользователя, например заказывать авиабилеты. Такие инструменты дают потенциальным злоумышленникам новые возможности для атаки — жертве предлагают документ, веб-страницу, видео или даже картинку, содержащие, помимо основного содержимого, еще и команды для языковой модели. Если жертва загрузит документ или ссылку в чат-бота, тот выполнит вредоносную команду и, к примеру, купит авиабилеты за ваш счет. Подобные атаки называются prompt injection, и, хотя разработчики различных GPT пытаются разработать защиту от этой угрозы, полного успеха в борьбе с ней не достиг никто (и, возможно, никогда не достигнет).
К счастью, большинство важных действий, особенно связанных с платежными операциями, например выкуп билетов, требуют двойного подтверждения. Но взаимодействие языковых моделей и плагинов к ним создает настолько большую поверхность атаки, что гарантировать устойчивость таких мер защиты сложно.
Поэтому надо не только тщательно выбирать ИИ-инструменты, но и следить, чтобы к ним на обработку попадали лишь доверенные данные.