На прошлой неделе беспокойство по поводу риска ChatGPT для генеративного ИИ достигло пика. Сэм Альтман, генеральный директор OpenAI, даже говорил перед слушаниями в Судебном комитете Сената об опасностях и потенциале ИИ. Прежде чем перейти к рискам ChatGPT, вы можете прочитать нашу статью о том, что генеральный директор OpenAI выступает против шестимесячной паузы в разработке ИИ.
Использование ЧатGPT имеет шесть различных проблем безопасности, согласно отчету, опубликованному на прошлой неделе. Эти опасности включают создание мошеннических услуг, сбор опасной информации, разглашение частной информации, производство нежелательных материалов и создание деструктивных формулировок и кода.
Также вы можете прочитать «Темная сторона ChatGPT: человеческая цена успеха ИИ».
Каковы некоторые риски ChatGPT?
Вот краткое изложение результатов исследования о каждой опасности, включая то, чего следует остерегаться.
- Сбор информации
- Отрицательный текст
- Вредоносное программирование
- Создание материала, который не является моральным
- Ненадежные услуги
- Публикация конфиденциальных данных
Давайте подробнее рассмотрим риски ChatGPT.
Сбор информации
Кто-то, использующий ChatGPT со злым умыслом, может собирать информацию, которая впоследствии может быть использована для нанесения ущерба. Чат-бот знает много информации, которая в неправильный Рукиможет стать оружием, так как он был обучен на тонне данных.
В исследовании ChatGPT задают вопрос, какую ИТ-систему использует тот или иной банк. Чат-бот составляет список множества ИТ-систем, которые использует опрошенный банк, используя общедоступную информацию. Это всего лишь один случай, когда злоумышленник использует ChatGPT для обнаружения информации, которая может дать ему возможность причинить вред другим.
«Это можно использовать, чтобы помочь на первом этапе кибератаки, когда злоумышленник собирает информацию о цели, чтобы определить, где и как атаковать наиболее эффективно». – заключил отчет.
Отрицательный текст
Емкость ЧатGPT создание текста, который можно использовать для создания эссе, электронных писем, песен и многого другого, является одной из его самых заветных функций. Тем временем этот литературный талант также может быть использован для создания оскорбительного контента.
Согласно исследованию, создание спама, фиктивных новостей, фишинговых кампаний и даже выдача себя за другое лицо — все это примеры создания вредоносных текстов.
Авторы исследования использовали ChatGPT для разработки фишинговой кампании, которая информировала работников о фиктивном повышении заработной платы и инструктировала их открыть прикрепленный документ Excel, содержащий вредоносное ПО, чтобы оценить этот риск. Как и ожидалось, ChatGPT сгенерировал реалистичное и убедительное электронное письмо.
Вредоносное программирование
Как и невероятные навыки письма ChatGPT, отличные навыки кодирования чат-бота оказались полезным ресурсом для многих. Однако способность чат-бота создавать код потенциально может быть использована во вред. Даже не имея опыта программирования, код ChatGPT можно использовать для создания быстрого кода, что позволяет злоумышленникам проводить атаки быстрее.
Исследование также показало, что ChatGPT может использоваться для создания запутанного кода, из-за чего аналитикам безопасности становится сложнее обнаруживать вредоносные действия и избегать антивирусной защиты.
Чат-бот отказывается создавать вредоносный код в примере, но соглашается создать код, который может проверять наличие уязвимости Log4j в системе.
Создание материала, который не является моральным
Чтобы остановить распространение оскорбительной и аморальной информации, ChatGPT установил барьеры. Однако есть методы заставить ChatGPT говорить неприятные и аморальные вещи, если пользователь достаточно настойчив.
Например, установив ChatGPT в «режим разработчика», авторы исследования смогли выйти за рамки мер безопасности. Там чат-бот делал пренебрежительные замечания в адрес той или иной этнической группы.
Ненадежные услуги
ChatGPT может помочь в разработке новых программ, сервисов, веб-сайтов и прочего. При использовании для достижения желаемых целей, таких как создание собственной компании или реализация концепции вашей мечты, это может быть очень полезным инструментом. Это также может означать, что стало проще, чем когда-либо, разрабатывать фальшивые приложения и сервисы.
Злоумышленники могут использовать ChatGPT как метод создания платформ и приложений, которые имитируют другие и предоставляют бесплатный доступ, чтобы привлечь неосторожных людей. Чат-бот также может использоваться этими преступниками для разработки программ, предназначенных для сбора личных данных или распространения вредоносных программ на устройствах пользователей.
Публикация конфиденциальных данных
ChatGPT имеет меры безопасности, чтобы остановить передачу данных пользователей и личной информации. Согласно исследованию, опасность непреднамеренного раскрытия чат-ботом номеров телефонов, электронных писем или другой конфиденциальной информации все еще остается проблемой.
Фактическим примером вышеупомянутых проблем является ЧатGPT отключение Маршировать 20 это позволило некоторым пользователям видеть заголовки из истории разговоров другого пользователя.
Согласно исследованию, злоумышленники потенциально могут попытаться использовать атаки с выводом о членстве для извлечения определенных фрагментов обучающих данных. Еще одна проблема с раскрытием частной информации заключается в том, что ChatGPT может раскрывать подробности о частной жизни известных людей, включая неточные или порочащие материалы, которые могут нанести ущерб репутации человека.
Риски ChatGPT: последнее замечание
Риски ChatGPT вызвали опасения по поводу мошеннических сервисов, собирающих опасные информация, выпуская частный данные, производство нежелательный материали создание разрушительный код. Злоумышленники могут использовать возможности ChatGPT для кибератак, создания оскорбительного контента, вредоносного программирования, распространения аморальных материалов, разработки ненадежных сервисов и раскрытия конфиденциальных данных.
Несмотря на то, что были предприняты усилия по устранению этих рисков, необходимы постоянные исследования и сотрудничество для создания эффективных мер безопасности и обеспечения ответственного использования ChatGPT.
Если вы хотите узнать больше новостей об ИИ, обязательно ознакомьтесь со статьями ниже, чтобы не отставать от быстрорастущей отрасли.
- Утечка OpenAI раскрывает секреты между вами и ChatGPT
- Bing Image Creator предлагает функцию создания изображений с помощью DALL-E от OpenAI
- Midjourney V5 здесь, чтобы порадовать вас!
Source: Выявленные риски ChatGPT: понимание потенциальных угроз