Дебют OpenAI ChatGPT был сегодня одной из самых обсуждаемых тем в технологиях искусственного интеллекта.
Text-davinci-003 — это новая модель в семействе больших языковых моделей на базе искусственного интеллекта GPT-3, которую компания представила в понедельник. Он относится к так называемой «серии GPT-3.5» и, как сообщается, превосходит своих предшественников, обрабатывая более сложные инструкции и генерируя более качественный и объемный контент. По теме, пользователь Твиттера и специалист по данным @минимаксир твитнул:
ПРОКЛЯТЬЕ @OpenAI ПЕРЕСТАНЬТЕ ОБЪЯВЛЯТЬ, Я СЛИШКОМ ЗАНЯТ https://t.co/F7Xd511FAf
— Макс Вульф (@minimaxir) 30 ноября 2022 г.
Новая модель совершенствует ChatGPT, объединяя обучение с подкреплением с отзывами людей, чтобы более точно сопоставлять языковые модели с инструкциями от людей. Davinci-003 — это настоящая модель обучения с подкреплением и обратной связью с человеком (RLHF), в отличие от davinci-002, в которой используется контролируемая точная настройка на написанных человеком демонстрациях и высоко оцененных образцах моделей для повышения качества генерации.
В демоверсии OpenAI ChatGPT может выполнять сложные задачи, такие как:
- вопросы и ответы
- Грамматическая коррекция
- Подведение итогов разговора
- Генерация текста в командной строке
- перевод с английского на другие языки
- Классификация предметов
- Перевод Phyton на естественный язык
- Классификация твитов
- Извлечение ключевых слов из текста
- Создать электронную таблицу
- Создание учебной заметки
Если вы хотите попробовать OpenAI ChatGPT самостоятельно, вы можете нажать кнопку ссылка здесь.
Многообещающая демонстрация OpenAI ChatGPT
Исследовательский выпуск ChatGPT, недавняя статья в блоге OpenAI заявляет, что это «последний шаг в итеративном развертывании OpenAI все более безопасных и полезных систем искусственного интеллекта». Меры по снижению безопасности в этом выпуске основаны на нескольких уроках, извлеченных в ходе развертывания предыдущих моделей, таких как GPT-3 и Codex, включая значительное снижение вредных и недостоверных результатов, полученных в результате применения обучения с подкреплением на основе обратной связи с человеком (RLHF). .
В блоге мы видим большие улучшения в OpenAI ChatGPT. ИИ мог написать лимерик (юмористическое стихотворение из пяти строк со схемой рифмовки aabba) и краткое изложение темы, о которой он говорил с пользователем.
Пользователь:
написать лимерик об этомЧатGPT:
Когда-то была теорема Ферма
Что многие нашли довольно элегантным
Он сказал, что если вы возьмете
Простое число и сделать
Сила не делится на нее
Результат, конгруэнтный, подойдет
В криптографии это очень удобно
Для шифрования это денди
Маленькая теорема Ферма, о, как здорово
В теории чисел это невозможно победить!Пользователь:
резюмировать разговор до сих порЧатGPT:
Маленькая теорема Ферма утверждает, что если pp — простое число, а aa — целое число, не делящееся на pp, то a^pa
(aa в степени pp) сравнимо с aa по модулю pp. Он часто используется в криптографии для эффективного выполнения модульного возведения в степень и для генерации закрытых ключей из открытых ключей. Это также полезный инструмент в теории чисел для доказательства других теорем. Я также написал лимерик о Малой теореме Ферма.Разговор между пользователем и ChatGPT – от Сообщение в блоге OpenAI
Ограничения OpenAI ChatGPT
Несмотря на это, OpenAI описал «ограничения» ChatGPT в своем блоге, в том числе тот факт, что иногда ответы звучат правдоподобно, но ошибочны или абсурдны. Думая, что ChatGPT все еще является ранней демонстрацией, такие проблемы ожидаются. В своем сообщении в блоге OpenAI заявил:
«Решить эту проблему сложно, так как: (1) во время обучения RL в настоящее время нет источника правды; (2) обучение модели быть более осторожной заставляет ее отклонять вопросы, на которые она может ответить правильно; и (3) контролируемое обучение вводит модель в заблуждение, потому что идеальный ответ зависит от того, что знает модель, а не от того, что знает человек-демонстратор».
Согласно Open AI, ChatGPT «иногда будет реагировать на вредные инструкции или проявлять предвзятое поведение». Хотя мы ожидаем некоторых ложных отрицательных и положительных результатов, в настоящее время мы используем API модерации, чтобы предупреждать пользователей или запрещать определенные категории опасного контента. Чтобы помочь нам в наших постоянных усилиях по улучшению этой системы, мы рады получить информацию от пользователей.
И это охватывает все текущие обновления демоверсии OpenAI ChatGPT. Тема ИИ и человеческих разговоров, которая недавно вышла на первый план с Meta Galactica AI, действительно интересна.
Вы увлекаетесь инструментами ИИ? Посмотрите другие статьи:
- Бесплатные альтернативы MyHeritage Historical AI
- Искусственный интеллект интерьера: без особых усилий преобразите свою комнату
- Что, если бы вы были викингом? MyHeritage AI Time Machine знает
- Искусственный интеллект Cicero от Meta достигает производительности на уровне человека в настольной игре Diplomacy
- Как давно нам помогает ИИ?
Желаем вам хорошего дня; продолжайте читать нас, чтобы узнать больше новостей об искусственном интеллекте.
Source: OpenAI ChatGPT: объяснение нового чат-бота OpenAI