В четверг Опра Уинфри обсуждала ИИ. В специальном выпуске «ИИ и наше будущее» приняли участие такие гости, как генеральный директор OpenAI Сэм Альтман, влиятельный человек в сфере технологий Маркес Браунли и директор ФБР Кристофер Рэй. Билл Гейтс присоединился к программе для сегмента о влиянии ИИ на общество. Программа заставила зрителей задуматься о том, что ждет ИИ в будущем.
Разговор об ИИ и нашем будущем
Опра задала тон вечеру мрачным размышлением о быстрой эволюции искусственного интеллекта. Она подчеркнула, что ИИ стремительно входит в мейнстрим, готов ли к этому мир или нет. «Мы — самые легко приспосабливающиеся существа на этой планете», — сказала она.Мы снова приспособимся, но следите за реальными вещами. Ставки не могут быть выше.«С самого начала было ясно, что эта речь не о праздновании прорывов в области ИИ. Вместо этого основное внимание уделялось тому, как ответственно ориентироваться на неизведанной территории, открытой ИИ.
Поскольку слова Опры отражали общее чувство обеспокоенности, программа переросла в более глубокие беседы с ключевыми гостями, такими как Сэм Альтман и Билл Гейтс. Каждый из них предложил свою точку зрения на состояние ИИ и предстоящие проблемы.
Сэм Альтман: Баланс между потенциалом и рисками ИИ
Генеральный директор OpenAI Сэм Альтман был первым гостем Опры и не терял времени, погружаясь в базовую механику ИИ. По словам Альтмана, современные системы ИИ, включая ChatGPT и недавно выпущенный o1, предназначены для прогнозирования последовательностей слов и, таким образом, понимания закономерностей и концепций, лежащих в основе данных. Но не все согласны с точкой зрения Альтмана. Хотя Альтман представляет ИИ как изучение более глубоких связей внутри данныхкритики утверждают, что ИИ по-прежнему лишь следует статистическим закономерностям, не понимая их по-настоящему.
Несмотря на чрезмерные обещания возможностей сегодняшнего ИИ, Альтман быстро подчеркнул необходимость вмешательства правительства в тестирование систем ИИ на безопасность. Он сравнил необходимость регулирования ИИ с тестированием самолетов и фармацевтических препаратов, подчеркнув, что риски, которые ИИ представляет для общества, требуют серьезного внимания. Однако его поддержка регулирования вызвала некоторый скептицизм, учитывая оппозицию OpenAI Законопроект Калифорнии о безопасности искусственного интеллекта (SB 1047)который получил поддержку от лидеров ИИ, таких как Джеффри Хинтон.
Хотя Альтман выражал оптимизм, он был осторожен, чтобы обойти вопросы о его влиянии на развитие ИИ. Опра спросила его, почему общественность должна доверять ему, но Альтман оставался неопределенным, подчеркивая, что доверие — это то, что OpenAI стремится построить со временем. Альтман отсутствие ответа привлек еще больше внимания, когда Опра упомянула заголовок, который характеризовал его как «самый могущественный и опасный человек в миреАльтман не согласился с этим ярлыком, но признал, что направление развития ИИ — это ответственность, которая лежит на нем тяжелым бременем.
Что такое SB 1047?
Законопроект Сената Калифорнии 1047 (SB 1047) — это закон, который гарантирует, что Системы ИИ безопасны. Законопроект, принятый в 2024 году, устанавливает требования к разработчикам ИИ, особенно к тем, кто создает сложные модели, которые могут нанести вред при неправильном использовании. SB 1047 требует от разработчиков добавить «полное выключение” функция для систем ИИ. Эта функция позволяет разработчикам или органам власти останавливать систему ИИ, если она опасна, особенно в таких чувствительных отраслях, как здравоохранение, финансы или энергетика. Цель — не допустить, чтобы ИИ наносил вред в критических секторах.
В законопроекте также говорится, что разработчики должны создавать планы безопасности для того, как их модели будут предотвращать вред. Эти протоколы должны включать меры предосторожности от неправомерного использования, например, кибератак или оружия. Они должны регулярно пересматриваться и обновляться, чтобы оставаться актуальными. Разработчики должны представлять отредактированные версии этих протоколов Генеральному прокурору Калифорнии. SB 1047 также подчеркивает оценку рисков. Перед выпуском модели ИИ разработчики должны оценить риски и принять правильные меры безопасности. Если модель слишком рискованна, разработчики не могут ее выпустить.
Глубокое погружение в Deepfakes
Один из самых леденящих душу моментов передачи наступил, когда обсуждение коснулось Deepfakes — технологии, которая может создавать гиперреалистичные фейковые видео. Маркес Браунлиизвестный своими техническими инсайтами, показал, насколько продвинуты видео, созданные с помощью ИИ. Демонстрируя возможности нового видеогенератора OpenAI Sora, Браунли одновременно и впечатлил, и заставил Опру немного понервничать.
Демонстрация Браунли послужила трамплином к разговору с Директор ФБР Кристофер Рэйв котором Рэй поделился своим личным опытом столкновения с дипфейками, созданными ИИ. Рэй рассказал, как ИИ использовался для создания видео, на котором он говорит то, чего никогда не говорил, подчеркнув, насколько убедительной и опасной может быть такая технология. Рэй выразил растущую обеспокоенность тем, как ИИ используется в гнусных целях, особенно в таких преступлениях, как секс-шантажкоторый резко возрос с использованием ИИ.
Однако Рэй не был таким уж мрачным. Он объяснил, что, хотя такие инструменты ИИ, как Deepfakes, представляют реальную угрозу, общество обязано сохранять бдительность и сосредоточенность. Он подчеркнул необходимость быть особенно бдительными в отношении дезинформации, распространяемой в преддверии предстоящих президентских выборов в США. По словам Рэя, обманчивый контент ИИ не будущий риск; он уже здесь, влияя на повседневное взаимодействие в социальных сетях. Предупреждающие слова Рэя напомнили зрителям о темном потенциале ИИ.
Билл Гейтс: перспективы ИИ в медицине и образовании
Не все эпизоды были такими напряженными. Опра обратилась к основателю Microsoft Биллу Гейтсу за более оптимистичной точкой зрения. Гейтс давно утверждал, что технологии — это сила добра, и ИИ не является исключением. Он поделился своей надеждой, что ИИ произведет революцию в таких областях, как здравоохранение и образование, повысив эффективность и улучшив человеческий опыт.
Гейтс нарисовал обнадеживающая картинаособенно на медицинских приемах, где ИИ может выступать в качестве поддерживающей третьей стороны. «Вместо того, чтобы смотреть на экран компьютера, врач взаимодействует с вами, а программное обеспечение гарантирует, что это действительно хорошая расшифровка», — пояснил он. Гейтс видит ИИ так, что технология усиливает, а не ослабляет человеческое взаимодействие. Но даже оптимизм Гейтса не мог избежать реалий ограничений ИИ, поскольку опасения по поводу предвзятости и ненадлежащего образования отошли на второй план.
Видение технологического гиганта распространяется на класс, где Гейтс описывает ИИ как персонализированного учителя, который всегда доступен и способен адаптироваться к индивидуальным потребностям обучения. Однако Гейтс проигнорировал растущую обеспокоенность по поводу неправильного использования ИИ в образовательных учреждениях. Хотя ИИ имеет огромный потенциал для улучшения обучения, страх перед плагиатом и дезинформацией привел многих школы должны проявлять осторожность.
Текущее воздействие и влияние ИИ на общество
Когда специальная программа подошла к концу, главная тема стала ясна: ИИ развивается быстрее, чем общество может полностью осознать. Хотя ИИ обещает невероятные достижения в таких областях, как медицина и образование, его риски столь же глубоки. От глубокого мошенничества до дезинформации, злоупотребление ИИ ставит этические дилеммы, которые все еще решаются.
Спецвыпуск Опры не дал всех ответов, но он успешно открыл дверь для дальнейшего обсуждения того, как человечество может справиться с быстрым развитием ИИ. Такие фигуры, как Сэм Альтман и Билл Гейтс, могут иметь разные подходы, но они оба сходятся в одном: ИИ останется, и управление его влиянием потребует тщательного обдумывания и сотрудничества.
Характерная смесь любопытства и осторожного оптимизма Опры оставила у аудитории больше вопросов, чем ответов, но, возможно, в этом и был смысл. В мире, где технологии продолжают опережать регулирование и понимание, речь идет не о том, чтобы знать все факты немедленно, а о том, чтобы быть вовлеченным и информированным.
Источники изображений: ABC/YouTube
Source: Основные моменты из передачи об искусственном интеллекте с Опрой, Сэмом Альтманом и Биллом Гейтсом