OpenAI неожиданно пересмотрела свою политику использования, устранив явные формулировки, запрещающие использование ее технологии в военных целях. Изменение, внесенное 10 января 2024 года, снимает из политики предыдущий запрет на «разработку оружия» и «военные и военные действия». Это существенное изменение вызвало обеспокоенность по поводу потенциальных последствий использования мощного инструмента OpenAI ChatGPT в военных приложениях.
Редакция политики
Эта модификация, являющаяся частью более широкого пересмотра политики, направленного на ясность и удобочитаемость, привлекла внимание своим влиянием на допустимое использование технологии OpenAI. Новая политика сохраняет общий запрет на использование службы с целью причинения вреда себе или другим, включая такие примеры, как разработка или использование оружия. Однако конкретный запрет на применение в военных целях исчез.
Взгляд OpenAI
Представитель OpenAI Нико Феликс объяснил, что целью было установить универсальные принципы, которые легко запомнить и применять во всем мире. Подчеркивая такие принципы, как «Не причиняйте вреда другим», компания считает, что эти рекомендации носят общий характер, но их легко понять. Феликс воздержался от прямого указания на то, включает ли расплывчатый запрет на «вред» все виды использования в военных целях, но подчеркнул запрет на использование технологий для разработки, применения оружия, причинения вреда другим людям или участия в несанкционированной деятельности, нарушающей безопасность.
Опасения экспертов
Хейди Клааф, технический директор Trail of Bits, выразила обеспокоенность тем, что новая политика, похоже, ставит законность выше безопасности. Она подчеркнула потенциальные риски, связанные с использованием ИИ в военных целях, сославшись на случаи предвзятости и галлюцинаций в моделях большого языка (LLM). Вызывает обеспокоенность то, что неточные и предвзятые операции могут привести к увеличению ущерба и жертвам среди гражданского населения.
Правоприменение и реальные последствия:
Реальные последствия изменения политики OpenAI остаются неясными. OpenAI ранее уклонялась от соблюдения запрета на военные приложения. Несмотря на текущую неспособность ChatGPT напрямую причинить вред, эксперты утверждают, что его использование в военных целях, даже ненасильственных, может косвенно способствовать созданию института, ориентированного на летальность.
Возможные мотивы и партнерство
Некоторые эксперты предполагают, что OpenAI, возможно, молча ослабляет свою позицию в отношении военного вмешательства. Переход от явного запрета «военных и военных действий» к сосредоточению внимания на «оружии» может создать пространство для поддержки оперативной инфраструктуры без непосредственного участия в разработке оружия. Тесное партнерство OpenAI с Microsoft, крупным оборонным подрядчиком, поднимает вопросы о влиянии таких отношений на политику компании.
Военный интерес к ИИ
Изменения в политике происходят в то время, когда военные во всем мире стремятся внедрить методы машинного обучения. Пентагон США в предварительном порядке изучает возможность использования ChatGPT и других моделей больших языков для получения стратегического преимущества. Признавая обеспокоенность по поводу точности и рисков безопасности, военные по-прежнему с энтузиазмом относятся к внедрению инструментов искусственного интеллекта.
Пересмотр OpenAI своей политики использования, в частности снятие явных запретов на военные приложения, поднимает важные вопросы об этичном использовании продвинутых языковых моделей. Поскольку пересечение ИИ и военных интересов продолжает развиваться, становится крайне важно найти баланс между технологическими инновациями и этическими соображениями, чтобы предотвратить потенциальный вред и неправильное использование. Последствия этих политических изменений, несомненно, будут способствовать продолжающимся дискуссиям об ответственном развертывании мощных технологий искусственного интеллекта в различных областях.
Предоставленное изображение предоставлено: Specna Arms/Unsplash
Source: Теперь вы можете использовать ChatGPT в военных целях.