OpenAI, локомотив искусственного интеллекта, известный своими новаторскими инновациями, снова оказался в заголовках новостей, хотя и не по тем причинам, которые он бы предпочел. На этот раз компания подвергается пристальному вниманию из-за пары существенных нарушений безопасности, которые вызвали обеспокоенность относительно ее методов защиты данных и общей структуры кибербезопасности.
ChatGPT для Mac не так безопасен, как вы думали
Первый инцидент связан с приложением ChatGPT от OpenAI для пользователей Mac, которое, как недавно было обнаружено, хранит разговоры пользователей в незашифрованном формате непосредственно на локальных устройствах, согласно данным Граньотчет.
Это означало, что конфиденциальная информация, передаваемая во время чатов, потенциально была раскрыта и доступна другим приложениям или вредоносному программному обеспечению.
Swift-разработчик Педро Хосе Перейра Виейто Эта уязвимость была обнаружена, что побудило OpenAI быстро выпустить обновление, которое реализовало шифрование для сохраненных разговоров. Однако инцидент подчеркнул важность надежных мер безопасности даже в, казалось бы, безобидных приложениях.
Приложение OpenAI ChatGPT на macOS не изолировано и сохраняет все разговоры в виде **обычного текста** в незащищенном месте:
~/Library/Application Support/com.openai.chat/conversations-{uuid}/
Таким образом, по сути, любое другое приложение или вредоносная программа может читать все ваши разговоры ChatGPT: pic.twitter.com/IqtNUOSql7
— Педро Хосе Перейра Виейто (@pvieito) 2 июля 2024 г.
Прошлогодний инцидент не дает покоя технологическому гиганту
Усугубляя проблемы безопасности, еще одна утечка прошлой весны снова настигла OpenAI. Хакер успешно проник во внутренние системы обмена сообщениями компании, получив доступ к конфиденциальной информации о ее операциях и технологиях ИИ.
Хотя руководство OpenAI в то время предпочло не разглашать информацию об утечке, полагая, что она не повлекла за собой угрозы для данных клиентов или партнеров, инцидент спровоцировал внутренние разногласия.
Некоторые сотрудники, включая бывшего технического руководителя программы OpenAI Леопольда Ашенбреннера, выразили обеспокоенность тем, что меры безопасности компании недостаточны для защиты от потенциальных угроз, особенно со стороны иностранных злоумышленников, стремящихся украсть ценную технологию ИИ.
Безопасность? Нет, спасибо!
Эти два инцидента вывели на передний план более широкую дискуссию о приверженности OpenAI безопасности и прозрачности. Хотя компания предприняла шаги для устранения непосредственных уязвимостей, остаются вопросы о ее внутренних процессах и степени, в которой она отдает приоритет безопасности при разработке и развертывании приложений ИИ. Потенциальные геополитические риски, связанные с передовыми технологиями ИИ, еще больше усложняют проблему, поскольку страх кражи интеллектуальной собственности иностранными государствами становится все более серьезным.
Ответ OpenAI на эти вызовы был двояким.
Во-первых, он создал Комитет по безопасности и охране для оценки и снижения рисков, связанных с будущими технологиями. В этот комитет входят такие видные деятели, как Пол Накасоне, бывший генерал армии и эксперт по кибербезопасности. Во-вторых, компания подтвердила свою приверженность инвестированию в защиту своих технологий, подчеркнув, что эти усилия предшествовали недавним инцидентам и постоянно развиваются.
Репутация OpenAI и доверие ее пользователей зависят от ее способности извлекать уроки из этого опыта и обеспечивать сохранение безопасности в качестве главного приоритета, поскольку компания продолжает удивлять нас инновациями в области развития технологий искусственного интеллекта.
Кредит на изображение: Джонатан Кемпер/Unsplash
Source: Репутация OpenAI и доверие пользователей пошатнулись из-за инцидентов безопасности