Поздно вечером в пятницу, когда геополитическая напряженность переросла в открытый конфликт на Ближнем Востоке, Сэм Альтман выступил с… The post Резюме AMA Сэма Альтмана о спорномПоздно вечером в пятницу, когда геополитическая напряженность переросла в открытый конфликт на Ближнем Востоке, Сэм Альтман выступил с… The post Резюме AMA Сэма Альтмана о спорном

Резюме AMA Сэма Альтмана о спорном соглашении OpenAI с Министерством обороны

2026/03/02 22:30
4м. чтение
Для обратной связи или замечаний по поводу данного контента, свяжитесь с нами по адресу [email protected]

Поздно вечером в пятницу, когда геополитическая напряженность переросла в открытый конфликт на Ближнем Востоке, Сэм Альтман опубликовал в X объявление о сделке, которой многие в технологическом сообществе давно опасались, но мало кто ожидал, что она материализуется так внезапно.

OpenAI официально подписала соглашение с Министерством обороны США (DoW) о развертывании своих передовых моделей в самых секретных и конфиденциальных сетях военных. 

Объявление немедленно вызвало хаотичную бурю. В течение нескольких минут тред превратился в поле битвы с хештегами "Cancel ChatGPT", острыми вопросами от экспертов по национальной безопасности и провокационными обвинениями в продаже будущего человечества.

Для компании, основанной на принципе обеспечения пользы AGI для всего человечества, поворот к роли главного оборонного подрядчика ощущался как тектонический сдвиг в моральном ландшафте отрасли.

Контекст этого внезапного поворота столь же драматичен, как и сама сделка. Всего за несколько часов до объявления Альтмана президент Дональд Трамп издал широкомасштабный указ, предписывающий всем федеральным агентствам немедленно прекратить использование технологий Anthropic, главного конкурента OpenAI.

Министр обороны Пит Хегсет назвал Anthropic "риском для цепочки поставок национальной безопасности" — определение, обычно применяемое к иностранным противникам, таким как Huawei.

По сообщениям, Anthropic отказалась предоставить Пентагону безусловный доступ к своим моделям Claude, настаивая на контрактных "красных линиях", которые запрещали бы использование технологии для массовой слежки внутри страны или полностью автономного смертоносного оружия.

Inside Sam Altman's AMA: OpenAI's controversial pivot to the Department of WarСэм Альтман, генеральный директор OpenAI

OpenAI заполнила вакуум, оставленный уходом конкурента. В то время как администрация требовала, чтобы ИИ-модели были доступны для "всех законных целей", OpenAI представила свое вступление не как капитуляцию, а как изощренный компромисс. 

В своей сессии "Спросите меня о чем угодно" (AMA) Альтман утверждал, что OpenAI обеспечила те же защитные меры безопасности, которые добивалась Anthropic, но достигла их через многоуровневый подход, а не через ультиматум.

Согласившись работать в рамках существующих правовых структур, ссылаясь на Четвертую поправку и Закон о войсках комитатус, OpenAI эффективно деэскалировала противостояние, которое грозило оставить вооруженные силы США без передовых возможностей ИИ во время активной войны.

Ключевые моменты из треда OpenAI Альтмана

Тред быстро перешел от корпоративного PR к открытым дебатам об этике войны с ИИ. Один из самых популярных вопросов касался фундаментального сдвига в миссии OpenAI: почему переход от "улучшения человечества" к сотрудничеству с обороной?

Ответ Альтмана был характерно прагматичным: "Мир — сложное, запутанное и иногда опасное место. Мы считаем, что люди, ответственные за защиту страны, должны иметь доступ к лучшим доступным инструментам".

Альтман подробно описал технические меры безопасности, предназначенные для предотвращения превращения ИИ в автономного палача. 

К ним относятся стратегия развертывания "только в облаке", предотвращающая встраивание моделей непосредственно в граничные устройства или военное оборудование, а также развертывание "Инженеров полевого развертывания" (FDE) для надзора за секретным использованием. 

Однако тред оставался скептичным. Критики указали на Примечание сообщества, подчеркивающее, что согласно Закону США PATRIOT "законное использование" все еще может охватывать обширный сбор данных.

Когда его спросили о вероятности того, что ИИ вызовет глобальную катастрофу, Альтман был нехарактерно краток, предположив, что сотрудничество в области национальной безопасности может фактически снизить риск, поддерживая государство и разработчиков на одной странице.

Один из самых показательных обменов касался управления. Когда его спросили, может ли федеральное правительство в конечном итоге национализировать OpenAI, Альтман признал: "Я, конечно, думал об этом, но на текущей траектории это не кажется очень вероятным".

Это признание мало успокоило тех, кто видит в ребрендинге Министерства обороны и внесении Anthropic в черный список первые шаги к государственному AGI.

Этика, прецедент и потеря контроля

Последствия этой сделки выходят далеко за рамки одного контракта. Приняв обозначение риска цепочки поставок своего конкурента, OpenAI неявно подтвердила мир, в котором правительство может выбирать победителей и проигравших на основе идеологической приверженности компании военной полезности.

Это создает пугающий прецедент, как признал даже Альтман, где частные компании могут чувствовать давление снизить свои этические ограничения, чтобы избежать маркировки как угрозы национальной безопасности.

С этической точки зрения требование человека в цикле остается самым спорным моментом.

Хотя OpenAI настаивает, что люди сохранят ответственность за применение силы, эксперты по обороне в треде отметили, что текущая политика DoW (Директива 3000.09) печально известна своей неопределенностью в отношении того, что представляет собой значимый человеческий контроль в высокоскоростном цифровом бою. 

Inside Sam Altman's AMA: OpenAI's controversial pivot to the Department of WarСэм Альтман

Если ИИ обрабатывает данные целеуказания быстрее, чем человек может моргнуть, действительно ли человек находится в цикле или просто ставит печать на решение машины?

Риск потери контроля над AGI больше не является теоретической проблемой далекого будущего; это вопрос того, как эти модели будут вести себя в высокорисковой среде секретной войны.

Также читайте: OpenAI привлекает рекордные 110 миллиардов $ от Amazon, NVIDIA и SoftBank для развития ИИ

По завершении AMA образ Альтмана в памяти пользователей OpenAI был не образом мечтательного технологического провидца, а цифрового дипломата, маневрирующего в мире жесткой силы. 

Он покинул тред с отрезвляющим выводом: эра нейтральной разработки ИИ закончилась. Решение OpenAI интегрироваться с Министерством обороны знаменует начало новой главы, где AGI рассматривается как стратегический актив государства, а не как глобальное общественное благо.

Пост Резюме AMA Сэма Альтмана о противоречивом пакте OpenAI с Министерством обороны впервые появился на Technext.

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно

Цены на криптовалюту