Я отдал исследованиям искусственного интеллекта двадцать лет жизни. На моих глазах эта сфера превратилась из забавной академической игрушки в несущую конструкциЯ отдал исследованиям искусственного интеллекта двадцать лет жизни. На моих глазах эта сфера превратилась из забавной академической игрушки в несущую конструкци

[Перевод] ИИ, который запретил сам себя: как нейросеть Claude стала тайным оружием Пентагона

2026/03/05 21:25
9м. чтение
Для обратной связи или замечаний по поводу данного контента, свяжитесь с нами по адресу [email protected]
5fd04effafcf4efafd518c09dd3d34c4.png

Я отдал исследованиям искусственного интеллекта двадцать лет жизни. На моих глазах эта сфера превратилась из забавной академической игрушки в несущую конструкцию современного мира. Я видел, как накатывают и разбиваются волны хайпа. Я до хрипоты спорил с паникерами, доказывая, что все эти сценарии судного дня — не более чем дешевая фантастика.

На этой неделе я замолчал.

Война обладает такой первобытной жестокостью, которую не способна уловить ни одна сухая техническая статья. Она стирает в пыль семьи. Она ломает человеческие судьбы так, как никогда не покажет официальная статистика потерь. И все эти двадцать лет я утешал себя одной мыслью: во что бы ни эволюционировал ИИ, он точно не станет этим. Он не превратится в безмолвный, невидимый винтик внутри машины для убийств. Эта моральная черта казалась мне высеченной в камне. Казалось, вся наша индустрия это понимает.

Но черта оказалась иллюзией.

И вот с какой мыслью я прошу вас свыкнуться, прежде чем вы продолжите чтение: то, что произошло на этой неделе, — это не просто политический анекдот о том, как Трамп запретил технологию, на которой, как выяснилось, держится его же собственная армия. Это материализация того самого кошмара, вокруг которого исследователи ИИ годами ходили на цыпочках. Угроза того, что, как только вы создаете нечто по-настоящему могущественное, вопрос о его превращении в оружие перестает быть философским. Он становится сугубо операционным. Он становится просто рутиной буднего дня.

Жертвы войн заслуживают нашей скорби. Но они также заслуживают того, чтобы мы не отводили взгляд от технологий, которые сделали их смерть быстрее и эффективнее.

В этой истории есть ракурс, который звучит как злая сатира.

Президент подписывает указ о запрете конкретной нейросети. Спустя несколько часов эта же самая нейросеть помогает координировать один из самых масштабных авиаударов США за последнее время. Компания-создатель пребывает в экзистенциальном ужасе, но намертво связана военными контрактами. А Пентагон с вежливой улыбкой заявляет, что им понадобится как минимум полгода, чтобы просто выдернуть шнур из розетки.

Но это не сатира. Это наша новая реальность.

Запрет, которого не было

В тот самый день, когда администрация Трампа выпустила разгромный указ, направленный против нейросети Claude от компании Anthropic, Центральное командование США (CENTCOM) использовало эту самую модель для поддержки авиаударов по Ирану.

И это не фигура речи. ИИ не сидел там на подхвате, сортируя скучные логи.

Как выяснили журналисты Wall Street Journal, Claude был намертво вшит в кровеносную систему военной разведки CENTCOM. Он генерировал оценки угроз, подсвечивал цели для ударов и прокручивал симуляции боевых сценариев. То, на что раньше у целой комнаты уставших аналитиков уходили недели, теперь сжималось до нескольких минут.

И дело не только в Ближнем Востоке. По слухам, сразу несколько военных командований США по всему миру плотно «сидят» на интеграциях с Claude. По словам инсайдеров, глубина внедрения ИИ в армию «настолько колоссальна, что гражданские даже отдаленно не представляют масштабов».

Когда журналисты попросили CENTCOM прокомментировать ситуацию, военные просто промолчали. Классика.

«Нам нужно полгода, чтобы слезть с этой иглы»

И вот тут начинается настоящий бюрократический сюрреализм.

Когда Белый дом прижали к стенке очевидным парадоксом — вы только что запретили ИИ, а ваши генералы продолжают им воевать, — официальный ответ прозвучал примерно так: «Ну да, есть такая проблемка».

Полная «ампутация» Claude из военных систем займет минимум шесть месяцев. Модель слишком глубоко пустила корни в инфраструктуру данных компании Palantir, слишком плотно срослась с операционными процессами. Она несет на себе такой вес, что ее нельзя просто отключить без риска обрушить всю систему.

Тем временем Министерство обороны уже подписало бумаги о том, что когда-нибудь потом они перейдут на технологии OpenAI и xAI Илона Маска. Но слово «когда-нибудь» в этом контексте растяжимо, как резина.

Эксперты по ИИ понимают: даже если вы просто поменяете одну нейросеть на другую, адаптация на уровне живых людей — переобучение солдат, перекройка рабочих процессов, новая калибровка доверия к машине — сожрет еще долгие месяцы. На данном этапе Claude — это уже не просто софт. Это институциональный рефлекс, въевшийся в мышечную память армии США.

Версия, о которой вам лучше не знать

А теперь часть, от которой по спине должен пробежать холодок.

В интервью CNBC Дарио Амодеи (CEO Anthropic) выглядел как человек, идущий по минному полю и подбирающий каждое слово с хирургической точностью. Но он подтвердил главное: его компания создала эксклюзивную, кастомную модель Claude специально для Пентагона.

Она живет в физически изолированном, засекреченном облаке. Ей не нужно делить вычислительные мощности с 200 миллионами обычных пользователей. Каждая капля ее энергии брошена исключительно на военные задачи.

И между делом Амодеи обронил фразу: «Объем вычислений, который мы вливаем в эти модели, удваивается каждые четыре месяца».

А затем на Reddit появился тред, который просто вынес мозги IT-тусовке.

Один из авторов, явно имеющий доступ к кулуарам индустрии, написал прямо: та модель, с которой играет Пентагон, скорее всего, на одно-два поколения опережает всё, что доступно публике. Вспомните прецеденты: та же OpenAI еще в июле 2025 года создала модель, взявшую золото на Международной олимпиаде по математике, а в феврале 2026-го — мощнейший исследовательский алгоритм. Ни то, ни другое так и не отдали обычным людям.

Какой из этого вывод? Пока вы до хрипоты спорите о том, насколько умен ваш домашний Claude Opus 4.6, военные, вероятно, уже крутят нечто близкое к Opus 5 или 5.5. Нейросеть, вскормленную на секретных разведданных. Работающую на вычислительных мощностях, от которых большинство мировых лабораторий просто разрыдались бы от зависти.

«Перестаньте мерить Пентагоновский Claude мерками вашего браузерного чат-бота, — написал автор треда. — Это вообще разные вселенные».

Две реальности ИИ: пока военные скрывают технологии, вы можете их использовать

Ирония нашего времени в том, что самые передовые версии нейросетей закрыты за бронированными дверями военных ведомств. Но это не значит, что мы остались ни с чем.

Если вы используете доступный гражданский ИИ только для того, чтобы писать вежливые письма или искать рецепты, вы всё еще мыслите как зритель, а не как творец. Настоящая сила кроется в том, чтобы заставить эти инструменты работать на вас: автоматизировать рутину, строить сложные архитектуры и переизобретать свой подход к бизнесу. И чтобы стать таким творцом, вам нужен правильный пульт управления.

Сервисы вроде BotHub дают доступ к целой экосистеме топовых мировых нейросетей (от генерации сложного кода до глубокого анализа данных) в одном окне. Это ваша личная лаборатория, где вы можете тестировать гипотезы, сравнивать результаты разных моделей и строить мощные системы для мирных, созидательных задач.

a0fcd18c93b77cd5181f5a10897e08cb.png

Для доступа не требуется VPN, можно использовать российскую карту.


На что способен ИИ в погонах

Опираясь на то, что уже просочилось в прессу, и экстраполируя тренды, можно набросать примерный портрет этой засекреченной версии:

Автономная стратегия: Он способен в одиночку моделировать сложнейшие геополитические шахматные партии, прокручивать военные симуляции быстрее любого генштаба и вытаскивать на свет неочевидные связи из океана секретных перехватов.

Синтез данных в реальном времени: Он может одновременно всасывать информацию из гигантских баз данных и тут же выдавать готовую к применению разведсводку. Живым аналитикам на это потребовались бы недели бессонных ночей.

Многоступенчатая логика: Говорят, что цепочки рассуждений этой модели на порядки длиннее всего, что есть на гражданском рынке. Это позволяет ей делать такие многоходовые стратегические выводы, до которых стандартный Claude просто не дотянется.

Поймите: это больше не чат-бот, который пишет стихи по запросу. Это полноценный когнитивный слой для ведения войн XXI века.

Где Anthropic всё-таки сказала «нет»

И вот здесь позиция Anthropic становится по-настоящему сложной и даже драматичной.

Они не отказывались от работы с военными в принципе. Контракт на 200 миллионов долларов — это не те деньги, от которых легко отмахнуться. Сотрудничество шло полным ходом. Искры полетели только тогда, когда дело дошло до конкретных задач.

Два требования Пентагона разрушили сделку.

Тотальная слежка за своими. Военные хотели натравить Claude на массивы данных обычных американцев — истории чатов, поисковые запросы, геолокации, транзакции по картам — чтобы прочесать их и сопоставить с личными профилями. Руководство Anthropic ответило жестким отказом.

Автономное право на убийство. Пентагон искал кратчайший путь к созданию полностью автономного оружия: дронов и систем, которые сами находят цель и сами спускают курок, не спрашивая разрешения у человека. Министерство обороны шло к этому годами — только в бюджете на 2026 год на это выделено $13,4 млрд (от дронов-камикадзе до управления целыми роями машин).

Anthropic предложила компромисс: давайте мы поможем сделать эти системы надежнее. Логика была такой же, как с автопилотами в машинах — иногда холодный алгоритм безопаснее дерганого, напуганного человека. Но они твердо стояли на своем: их текущий ИИ еще не дорос до того, чтобы брать на себя ответственность за отнятую жизнь.

Пентагон попытался схитрить: давайте оставим Claude в облаке, не будем физически вшивать его в ракеты. Но Anthropic не купилась. В современной сетецентрической войне облако — это и есть поле боя. Если алгоритм, запускающий цепочку убийств, крутится на серверах где-нибудь в Вирджинии, он не становится менее смертоносным. Это просто делает бумажную работу более опрятной.

На этом моменте переговоры и рухнули.

Ирония, о которой все молчат

Компания Anthropic создавала Claude с маниакальной оглядкой на этику. Осторожность, безопасность, строгая ИИ-«конституция» — на этом строился весь их бренд. Они позиционировали себя как «ту самую компанию, которая действительно боится искусственного интеллекта».

И к чему мы пришли? Их детище стало становым хребтом реальной военной кампании. Их секретная сборка, вероятно, является самым мощным боевым ИИ на планете. А правительство США — то самое, которое только что пыталось стереть их в порошок, — физически не может отказаться от их услуг еще как минимум полгода.

Это нельзя назвать чистым лицемерием. Anthropic действительно прочертила красные линии. И они потеряли колоссальные деньги, отказавшись их переступать.

Но эта ситуация безжалостно подсвечивает одну пугающую истину: когда вы создаете технологию цивилизационного масштаба, вы очень быстро теряете власть над тем, в чьих руках она окажется и как именно изменит этот мир.

Что дальше

Рано или поздно военные перенесут свои данные на серверы OpenAI и Илона Маска. Это займет полгода, год, будет сопровождаться скрипом и болью, но это случится.

А пока засекреченная версия Claude, о существовании которой большинство из нас даже не догадывалось, продолжает принимать решения. Решения, которые влияют на живых людей в реальных конфликтах. Она работает на бюджетах, которые удваиваются каждые четыре месяца, и учится на данных, которые мы никогда не увидим.

Гонка ИИ-вооружений перестала быть страшилкой из будущего. Это больше не гипотетический риск, который можно обсуждать на философских панелях. Это наша операционная реальность, которая разворачивается с такой скоростью, что за ней не поспевают ни законы, ни комитеты по этике, ни даже указы президента.

Мы думали, что всё самое страшное впереди. Но, похоже, мы уже давно находимся на самом дне этой кроличьей норы.

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно

Новости о цене Bitcoin: BlackRock подпитывает рост ETF на $225M, а ARK покупает на падении, пока DeepSnitch AI готовится к запуску с ростом в 1000x и мощной полезностью для рынка 2026 года

Новости о цене Bitcoin: BlackRock подпитывает рост ETF на $225M, а ARK покупает на падении, пока DeepSnitch AI готовится к запуску с ростом в 1000x и мощной полезностью для рынка 2026 года

Наслаждайтесь любимыми видео и музыкой, загружайте оригинальный контент и делитесь всем этим с друзьями, семьей и всем миром на YouTube.
Поделиться
Blockchainreporter2026/03/06 03:10
Сравнения ИИ-моделей для генерации изображений: Nano Banana Pro vs GPT Image 1.5

Сравнения ИИ-моделей для генерации изображений: Nano Banana Pro vs GPT Image 1.5

Если вы хоть раз пытались сгенерировать картинку в нейросети, вы знаете этот фокус. Пишешь: "Красивый закат на море, девушка с зонтиком, реализм". Получаешь: де
Поделиться
ProBlockChain2026/03/05 23:36
Власти США арестовали подозреваемого в краже $46 млн с правительственного кошелька

Власти США арестовали подозреваемого в краже $46 млн с правительственного кошелька

ФБР арестовало Джона Дагиту, которого подозревают в краже цифровых активов на $46 млн с криптокошелька Службы маршалов США. В конце января его личность раскрыл
Поделиться
ProBlockChain2026/03/05 23:10