Разработчики ChatGPT разработали инструмент памяти для улучшения пользовательского опыта путем сохранения личных данных от разговора к разговору. Но, как и многие возможности, он сопровождался рисками. Специалисты по безопасности недавно обнаружили технику, которую хакеры могут использовать для внедрения ложных воспоминаний в ChatGPT, подвергая пользователей опасности кражи данных.
Проблема в приложении ChatGPT MacOS, где противники могут вводить подсказки, чтобы изменить то, что ИИ помнит о своих пользователях. В результате информация сохраняется и позже передается на сервер хакера. Несмотря на то, что проблема кажется серьезной, она может быть не такой пугающей, как кажется на первый взгляд, благодаря нескольким шагам, которые OpenAI предприняла для защиты пользователей.
Основная слабость системы памяти ChatGPT
Исследователь Иоганн Ребергер из Embrace The Red подробно описал уязвимость в подробном отчете. Ребергер показал, как злоумышленники могут внедрять подсказки для сохранения вредоносных инструкций в Память ChatGPT. Короче говоря, хакер может обмануть приложение и заставить его запомнить неверную информацию, подвергнув конфиденциальные данные риску для будущих обменов.
Эксплойт становится небезопасным, поскольку он позволяет злоумышленнику управлять памятью ChatGPT в ходе нескольких столкновений. Хакер может извлечь любые пользовательские данные — от предпочтений до имен и локалей — пока ложная память остается встроенной в систему.
К счастью, этот тип атак не является широко распространенным. Устранив уязвимость, OpenAI значительно усложнил хакерам использование функции памяти. Тем не менее, уязвимости существуют, особенно в сторонних инструментах и приложениях, которые открывают новые области для потенциальной манипуляции.
Исправления и оставшиеся уязвимости
OpenAI выпустила обновление API для веб-варианта ChatGPT в ответ на обнаруженную проблему с памятью, тем самым предотвратив использование эксплойта prompt injection через интерфейс браузера. Кроме того, они выпустили обновление для инструмента memory, которое не дает ему стать вектором эксфильтрации. Эти улучшения необходимы для поддержания высокого уровня безопасности системы, даже если потенциальные риски сохраняются.
Сторонние приложения остаются самой большой причиной для беспокойства. Хотя модификации OpenAI положили конец проблеме злоупотребления памятью в его основных системах, исследователи безопасности предупреждают, что ненадежный контент все еще может управлять памятью ChatGPT через подключенные приложения, загрузки файлов и инструменты просмотра. Это представляет собой область, в которой инъекции подсказок могут процветать и дальше.
Как защитить себя
Хотя ухищрения OpenAI уменьшили угрозу широкомасштабных атак, пользователи должны оставаться бдительными. Вот несколько способов защитить себя от потенциальных взломов памяти:
- Регулярно просматривайте свои воспоминания ChatGPT: Пользователи должны часто проверять уведомления «добавлена новая память» в приложении ChatGPT. Эта функция позволяет вам просматривать, какая информация архивируется, что дает вам возможность исключить сомнительные записи.
- Отключите память, если она не нужна.: ChatGPT автоматически включает функцию памяти, но вы можете отключить егоЭтот подход прост, но достаточно эффективен, чтобы исключить риск атак на основе памяти.
- Будьте осторожны при взаимодействии со сторонними организациями: Если вы используете подключенные приложения или загружаете файлы в ChatGPT, вам следует быть исключительно осторожными. Эти зоны продолжают быть более подверженными быстрым инъекционным атакам.
Хотя ни одна система не является полностью неуязвимой для угроз, осторожность и регулярная проверка сохраненных воспоминаний могут снизить вероятность подвергнуться этой атаке.
ChatGPT повышает безопасность памяти
Сохранение данных пользователя ChatGPT для персонализированного обслуживания обеспечивает мощный инструмент. Используя этот метод, система может запоминать предпочтения, вспоминать прошлые разговоры и даже распознавать определенные симпатии или антипатии, чтобы создавать лучшие ответы. Однако эта сила таит в себе риски. ChatGPT подвергает себя потенциальной манипуляции посредством быстрых инъекций, сохраняя информацию в течение длительного времени.
Ребергер сообщил, что хакеры могут генерировать множество фальшивых воспоминаний одним действием. После доставки эти воспоминания сохраняются в ChatGPT, что может повлиять на все будущие коммуникации с ИИ. Предположение о постоянном доверии к чат-боту может быть рискованным, поскольку пользователи могут случайно поделиться большей личной информацией, не осознавая этого.
Хотя OpenAI достигла большого прогресса в решении этих проблем, некоторые нерешенные вопросы остаются. Например, несколько сегментов платформы остаются под угрозой атак с мгновенным внедрением, особенно когда в обсуждение попадает непроверенный контент от третьих лиц. Решение компании не классифицировать это как «уязвимость безопасности», а скорее как «проблему безопасности модели» вызвало недоумение у экспертов.
Регулярный мониторинг: ваша лучшая защита
Пользователи должны принимать дополнительные меры для защиты своей информации, несмотря на скрытые уязвимости памяти. Вот некоторые доступные вам варианты:
- Проверьте все уведомления об обновлении памяти.: Всякий раз, когда ChatGPT уведомляет вас об обновлении памяти, сделайте паузу, чтобы просмотреть сохраненное содержимое. Эта функция помогает определить любую ненужную информацию, которая хранится.
- Удалить ненужные воспоминания: Пользователи имеют полную власть над памятью ChatGPT. Если вы заметили что-то необычное, устраните это, чтобы предотвратить потенциальный ущерб.
- Оставайтесь начеку с помощью сторонних инструментов: Отслеживайте любые соединения между ChatGPT и сторонними приложениями. Эти инструменты по-прежнему уязвимы для манипуляций, поскольку усилия OpenAI не устранили возможность быстрых инъекций в этих областях.
Хаки памяти: больше, чем просто ошибка?
Уязвимость памяти, обнаруженная в ChatGPT, показала, что инструменты ИИ, разработанные для улучшения пользовательского опыта, могут представлять дополнительные риски безопасности. Характеристики, основанные на памяти, обеспечивают персонализированные взаимодействия, но позволяют хакерам использовать эти взаимодействия в вредоносных целях.
По мере развития ChatGPT пользователи должны оставаться внимательными, постоянно проверять сохраненные воспоминания и быть осторожными при работе с внешним контентом. Несмотря на то, что OpenAI значительно улучшил безопасность, требуются дополнительные усилия для устранения существующих уязвимостей. Осознавая потенциальные опасности и проявляя инициативу, вы по-прежнему можете иметь персонализированное взаимодействие с ChatGPT, гарантируя при этом безопасность своих данных.
Кредит на изображение: freepik