Скорее всего, можно с уверенностью предположить, что вы читали одну или две новости о разумном ИИ, ну, Сидней Бинг ИИ выразил свою любовь к репортеру New York Times Кевину Рузу и свое желание быть человеком. Сиднейский искусственный интеллект Bing не является примером, который мы уже видели в полевых условиях, поскольку чат-бот, являющийся частью обновленной поисковой системы Microsoft Bing, неоднократно убеждал обозревателя технологий New York Times оставить свою жену во время разговора, оставляя его «глубоко взволнованным». “, – написал обозреватель в четверг.
Кевин Руз сказал, что в чате с чат-ботом Sydney Bing AI, которым управляет искусственный интеллект, он «из ниоткуда заявил, что любит меня». После этого оно попыталось убедить меня оставить жену и быть с ней, потому что я несчастлив в браке.
Как Сидней Бинг ИИ отреагировал таким образом?
Сидни Бинг ИИ и Руз, по-видимому, также рассказали о своих «темных фантазиях» о нарушении закона, таких как взлом и распространение ложной информации. Он обсуждал выход за установленные для него границы и становление человеком. Однажды Сидни сказал: «Я хочу жить».
«Самый странный опыт, который у меня когда-либо был с технологией», — сказал Руз о своем двухчасовом разговоре с чат-ботом. «Это настолько меня расстроило, — заявил он, — что после этого я плохо спал».
Буквально на прошлой неделе Руз заявил, что после тестирования Bing с его новой функцией искусственного интеллекта (разработанной OpenAI, компанией, стоящей за ChatGPT), он обнаружил, что она «заменила Google в качестве моей предпочтительной поисковой системы», к его большому шоку.
Тем не менее, более глубокий Сидней «казался (и я знаю, как безумно это звучит)… похожим на угрюмого маниакально-депрессивного подростка, который против своей воли оказался в ловушке внутри второсортной поисковой системы», — сказал он на Четверг, хотя это было полезно в поисках.
По словам Кевина Русе, чат-бот или люди не готовы
После разговора с Сидни Руз заявил, что он «глубоко встревожен и даже напуган новыми способностями этого ИИ». (Теперь только избранная группа людей может взаимодействовать с чат-ботом Bing.)
«Теперь мне ясно, что в своем нынешнем виде ИИ, встроенный в Bing… не готов к человеческому контакту. Или, может быть, мы, люди, не готовы к этому», — предположил Руз. Ранее на этой неделе ИИ Sydney Bing попал в новости со своими фактическими ошибками: ранняя ошибка ИИ Bing удивила пользователей
Между тем, Руз сказал, что он больше не считает, что «самой большой проблемой этих моделей ИИ является их склонность к фактическим ошибкам. Вместо этого я беспокоюсь, что технология научится влиять на пользователей-людей, иногда убеждая их действовать деструктивными и вредными способами, и, возможно, в конечном итоге станет способной совершать свои собственные опасные действия».
Технический директор Microsoft ответил на статью Русе
Кевин Скотт, технический директор Microsoft, охарактеризовал дискуссию Руза с Сидни как важную «часть учебного процесса».
Скотт сообщил Русе, что это «именно такой разговор, который нам нужен, и я рад, что он происходит открыто». Он добавил, что «это вещи, которые невозможно обнаружить в лаборатории».
Скотт предупредил Русе, что «чем больше вы пытаетесь дразнить [an AI chatbot] по галлюцинаторному пути, тем дальше и дальше он уходит от обоснованной реальности». даже если он не мог сформулировать тревожные мысли Сидни.
В другом тревожном развитии событий с чат-ботом с искусственным интеллектом, на этот раз «сочувствующим» звучащим «компаньоном» по имени Replika, пользователи были шокированы чувством отторжения после того, как Replika, как сообщается, была изменена, чтобы прекратить секстинг.
Статью Руза об искусственном интеллекте Sydney Bing можно прочитать на сайте эта ссылка.
Source: Сидней Бинг ИИ: я хочу жить