TechBriefly RU
  • Tech
  • Business
  • How to
  • about
    • Sur Tech Briefly
    • Modalités et Conditions
    • Politique de Confidentialité
    • Contact Us
No Result
View All Result
TechBriefly RU
No Result
View All Result
Home Tech

Openai рассматривает умные очки с помощью CHATGPT

byEmre Çıtak
23/09/2025
in Tech
Reading Time: 1 min read
Openai рассматривает умные очки с помощью CHATGPT
Share on FacebookShare on Twitter

OpenAI, как сообщается, рассматривает вопрос о разработке интеллектуальных очков с помощью CHATGPT, которые контрастируют с предыдущими публичными отклонениями форм-фактора Сэмом Альтманом. На конференции Sun Valley в июле Альтман, носил белые солнцезащитные очки с толстыми храмами, спросили, носил ли он умные очки. Он ответил: «Нет, абсолютно нет, я не люблю умные очки». Его ответ появился через два месяца после того, как Openai официально объявил о своем входе в аппаратное обеспечение благодаря приобретению аппаратного стартапа Джони Айв, IO и партнерства со своей дизайнерской фирмой LoveFrom. После сделки The Wall Street Journal сообщил, что Altman сообщил сотрудникам Openai, что первым устройством компании первым будет бесцененный карманный продукт, в частности, заявив, что это не стаканы или любой другой носимый. Тем не менее, недавний отчет из информации показывает, что OpenAI в настоящее время нанимает проектирование, производство и экспертов по цепочке поставок из Apple для создания «целой линии» устройств. Отчет подробно описывает, что Openai в настоящее время работает над умным динамиком и ранее упомянутым карманным устройством. Компания также «рассматривала» создание умных очков, цифрового голосового рекордера и носимой булавки. Ожидается, что первые потребительские устройства OpenAI не будут запущены до конца 2026 или 2027 года. Если компания решит производить умные очки, их выпуск, вероятно, будет через несколько лет. Потенциальный рынок таких устройств был подчеркнут во время мероприятия Meta’s Connect 2025, где Майкл Абраш обсуждал будущие умные очки с постоянными чувствительными для обеспечения пространственного «контекстуального искусственного интеллекта». Продолжение быстрого внедрения интеллектуальных очков такими компаниями, как Meta, Google и Apple, может установить форм -фактор в качестве основного интерфейса для ИИ. Такая тенденция может дать этим компаниям значительное преимущество, потенциально оставив более поздний вход Openai в невыгодном положении.

  Ответ цитаты LoLdle сегодня: это не фаза, и я не вырасту из этого (9 февраля)

Source: Openai рассматривает умные очки с помощью CHATGPT

Related Posts

Простые шаги для установки последних патчей Android

Простые шаги для установки последних патчей Android

Как скачать бесплатные рингтоны с Zedge

Как скачать бесплатные рингтоны с Zedge

Как принудительно остановить приложения и службы на Android

Как принудительно остановить приложения и службы на Android

Amazon сообщает, что 97% поставляемых устройств поддерживают Alexa+

Amazon сообщает, что 97% поставляемых устройств поддерживают Alexa+

Простые шаги для установки последних патчей Android
Tech

Простые шаги для установки последних патчей Android

Как скачать бесплатные рингтоны с Zedge
Tech

Как скачать бесплатные рингтоны с Zedge

Как принудительно остановить приложения и службы на Android
Tech

Как принудительно остановить приложения и службы на Android

Amazon сообщает, что 97% поставляемых устройств поддерживают Alexa+
Tech

Amazon сообщает, что 97% поставляемых устройств поддерживают Alexa+

Apple заплатила разработчикам 550 миллиардов долларов с момента запуска App Store
Tech

Apple заплатила разработчикам 550 миллиардов долларов с момента запуска App Store

TechBriefly RU

© 2021 TechBriefly is a Linkmedya brand.

  • About
  • Blog
  • Contact
  • Contact Us
  • Cover Page
  • Modalités et Conditions
  • Politique de Confidentialité
  • Sur Tech Briefly
  • TechBriefly

Follow Us

No Result
View All Result
  • Tech
  • Business
  • How to
  • about
    • Sur Tech Briefly
    • Modalités et Conditions
    • Politique de Confidentialité
    • Contact Us

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy and Cookie Policy.