Утечка Samsung ChatGPT — это самая последняя утечка данных в результате использования чат-бота, которая произошла в сложное время, связанное с проблемами конфиденциальности в отношении языковой модели: поддельное расширение ChatGPT захватывает учетные записи Facebook.
Используя ChatGPT для помощи в решении задач, сотрудники Samsung непреднамеренно слили конфиденциальную информацию о компании. Компания предоставила инженерам своего полупроводникового подразделения доступ к ИИ-писателю, чтобы помочь в решении проблем с его исходным кодом. Однако сотрудники ввели личную информацию, в том числе исходный код нового программного обеспечения и протоколы совещаний, а также информацию об их оборудовании.
В результате утечки Samsung ChatGPT менее чем за месяц было зафиксировано три случая утечки критически важной информации сотрудниками через ChatGPT. Эти коммерческие секреты от Samsung теперь в основном находятся в руках OpenAI, фирмы, которая создала ChatGPT, поскольку она хранит вводимые пользователем данные для дальнейшего обучения.
Меры предосторожности после утечки Samsung ChatGPT
Согласно сообщениям местных корейских СМИ, сотрудник Samsung ввел исходный код неисправной базы данных полупроводников в ChatGPT и попросил его помочь им найти решение. В другом случае рабочий разгласил секретный код, пытаясь починить неисправное оборудование. Согласно сообщениям, другой сотрудник передал чат-боту контроль над всей встречей и поручил ему записывать происходящее.
В ответ Samsung Semiconductor в настоящее время создает собственный внутренний ИИ для использования сотрудниками, хотя им разрешено использовать только подсказки размером не более 1024 байт.
Однако максимально эффективное выполнение этого процесса может сэкономить производителям чипов значительное количество времени при тестировании и проверке процессоров, что также приведет к снижению затрат. В одном из вышеупомянутых случаев сотрудник запросил у ChatGPT оптимизацию тестовых последовательностей для выявления неисправностей в чипах.
Слишком маленький, слишком поздно
Проблема с раскрытием коммерческой тайны в ChatGPT заключается в том, что типизированные вопросы не всегда исчезают после того, как сотрудник выходит из своего компьютера. Согласно OpenAI, он может использовать информацию, предоставленную ChatGPT или другими пользовательскими службами, для улучшения своих моделей ИИ.. Другими словами, если пользователи специально не отказываются, OpenAI сохраняет эти данные. Поскольку он «не может удалять определенные подсказки», OpenAI прямо предостерегает пользователей от раскрытия важной информации.
После инцидентов Samsung Electronics предупредила своих сотрудников о потенциальных рисках раскрытия личной информации, заявив, что такие данные теперь хранятся на серверах, принадлежащих OpenAI, и не могут быть восстановлены. Любая утечка данных может иметь катастрофические последствия для корпорации в условиях жесткой конкуренции в полупроводниковой отрасли.
Но пользователи ChatGPT в Samsung не единственные, кто делится информацией. Cyberhaven, компания по кибербезопасности, недавно провела исследование и обнаружила, что 3,1% пользователей ее ИИ когда-либо вводили конфиденциальную информацию о компании. По данным Cyberhaven, корпорация, в которой работает около 100 000 сотрудников, может отправлять конфиденциальную информацию OpenAI сотни раз в неделю.
У компании, похоже, нет законных возможностей перед лицом утечки Samsung ChatGPT, чтобы попросить OpenAI извлечь или удалить личную информацию, которую она в настоящее время хранит. Некоторые предположили, что, поскольку это один из фундаментальных принципов закона, регулирующего сбор и использование данных предприятиями, ChatGPT нарушает GDPR ЕС именно из-за этого пункта. Это также одно из объяснений запрета ChatGPT в Италии.
Source: Утечка Samsung ChatGPT раскрывает конфиденциальные данные