В ноябре 2025 года японские и американские исследователи запустили на суперкомпьютере Fugaku симуляцию целой коры головного мозга мыши. Не упрощённую модель. НеВ ноябре 2025 года японские и американские исследователи запустили на суперкомпьютере Fugaku симуляцию целой коры головного мозга мыши. Не упрощённую модель. Не

Девять миллионов нейронов, двадцать шесть миллиардов синапсов, один суперкомпьютер

В ноябре 2025 года японские и американские исследователи запустили на суперкомпьютере Fugaku симуляцию целой коры головного мозга мыши. Не упрощённую модель. Не абстракцию. Биофизически детальную реконструкцию — с морфологией дендритов, ионными каналами, кальциевой динамикой. Каждый из девяти миллионов нейронов существовал как дифференциальное уравнение в пространстве и времени.

Это первая в истории петафлопсная симуляция мозга на микроскопическом уровне. Статья вышла на SC'25, главной конференции по суперкомпьютерам. Я прочитал её целиком и хочу разобрать, что там на самом деле произошло. Думаю, любому разработчику в сфере искусственного интеллекта полезно знать, что происходит с симуляцией человека - всё ещё самого флагманского интеллекта этого мира.


Зачем вообще симулировать мозг так детально?

Глубокие нейросети работают. GPT пишет код. Diffusion-модели рисуют. Зачем возвращаться к биологии?

Ответ прост: мы не понимаем, как работает мозг. Мы умеем копировать отдельные свойства — нелинейные активации, обратное распространение ошибки, внимание. Но биологический нейрон — это не ReLU. У него есть форма: сома, аксон, дендритное дерево с сотнями ветвей. По этим ветвям течёт ток, меняется концентрация кальция, открываются и закрываются ионные каналы пятнадцати разных типов. Всё это влияет на то, когда нейрон выстрелит спайком.

Может, эти детали не важны для функции мозга. А может, именно в них вся суть. Чтобы проверить, нужно построить модель, где эти детали сохранены, и посмотреть, что она будет делать.

Blue Brain Project начал эту работу в 2005 году. Human Brain Project подхватил. Brain Initiative в США. Brain/MINDS в Японии. Двадцать лет строят цифровые реплики. И вот теперь — первая целая кора.


Что такое Fugaku и почему именно он

Fugaku — японский суперкомпьютер, построенный RIKEN и Fujitsu. 158 976 вычислительных узлов. 440 петафлопс пиковой производительности в double precision.

Каждый узел содержит процессор ARM A64FX с четырьмя вычислительными группами (CMG) по 12 ядер. Каждое ядро умеет выполнять 512-битные векторные операции через расширение SVE. Это значит: восемь чисел double за один такт.

Архитектура Fugaku необычно регулярна. Четыре группы по двенадцать ядер. Межузловая связь Tofu D со скоростью 40 гигабайт в секунду. Эта иерархичность прямо напрашивается на определённый способ параллелизации.


Neulite: симулятор размером с курсовую

Авторы не стали допиливать NEURON или Arbor — существующие симуляторы биофизических нейронов. Они написали свой. Назвали Neulite. Ядро — меньше 2600 строк кода на C17.

Две тысячи шестьсот строк. Для сравнения: в типичном ML-пайплайне на PyTorch столько уходит на один dataloader с аугментациями.

Как это возможно?

Три принципа.

Первый: всю предобработку делает фронтенд. Neulite использует BMTK (Brain Modeling ToolKit) от Allen Institute как интерфейс для построения моделей. Пользователь пишет скрипт на Python, BMTK генерирует CSV-файлы с описанием нейронов и связей. Ядро только читает эти файлы и считает.

Второй: всё, что можно, определяется на этапе компиляции. Параметры симуляции уходят в заголовочный файл. Никакой динамической диспетчеризации в рантайме.

Третий: ядро поддерживает только модели нейронов из Allen Cell-Types Database. Пятнадцать типов ионных каналов. Сорок восемь типов клеток. Стандартизованные форматы SWC для морфологии и SONATA для параметров. Никакой универсальности — и никакой избыточности.

Результат: простой код, который легко оптимизировать под конкретное железо. Unix-философия в чистом виде. Делай одно, и делай это хорошо.



Как распараллелить мозг

Девять миллионов нейронов. 145 728 вычислительных узлов. Как распределить работу?

Авторы применили трёхуровневую декомпозицию.

Уровень первый: MPI. Весь мозг делится на подсети, каждая уходит на свой MPI-процесс. Четыре процесса на узел — по числу CMG. Итого около шестисот тысяч процессов на полном Fugaku.

Уровень второй: OpenMP. Внутри одного MPI-процесса расчёт для всех нейронов подсети распределяется по двенадцати потокам — по числу ядер в CMG.

Уровень третий: SVE. Уравнения для восьми морфологически идентичных нейронов решаются одновременно через 512-битные векторные операции. Авторы писали SVE-код вручную через интринсики ARM ACLE, без автовекторизации компилятора.

Отдельная головная боль: решение линейных уравнений для мембранного потенциала. Морфология нейрона — дерево без циклов. Матрица коэффициентов почти трёхдиагональная, с отдельными элементами в местах ветвления дендритов. Для таких матриц работает метод Хайнса, модифицированное гауссово исключение без fill-in.

Параллельная версия метода Хайнса делит дендритное дерево на ветви и считает их независимо. Авторы распределяли ветви по потокам, выравнивая не количество, а суммарный размер — чтобы нагрузка была одинаковой.


Бутылочное горлышко: спайки

Нейроны обмениваются информацией через спайки — короткие электрические импульсы. Когда мембранный потенциал пересекает порог (−15 мВ в этой модели), нейрон «стреляет». Информация об этом спайке должна дойти до всех нейронов, с которыми есть синаптическая связь.

В распределённой симуляции это означает: после каждого шага по времени нужно собрать спайки со всех узлов и раздать обратно всем. При сотнях тысяч узлов коммуникация становится дорогой.

Существующие симуляторы используют разные подходы. NEURON и Arbor вызывают MPI_Allgather дважды: сначала узнают, сколько спайков пришлёт каждый узел, потом собирают сами спайки. Это хорошо работает, когда нейроны стреляют редко — как в коре.

NEST использует MPI_Alltoall, предполагая, что каждый нейрон получает мало входов. Тогда объём передаваемых данных не растёт с размером сети.

Авторы Neulite попробовали оба подхода. Первый плохо масштабировался. Второй съедал слишком много времени. Коллективные функции MPI на Fugaku нельзя вызывать асинхронно при большом числе узлов — нельзя спрятать коммуникацию за вычислениями.

В итоге они пришли к третьему варианту: упаковывать спайки в битовые массивы. Восемь нейронов на один uint8. Выстрелил: единица. Молчит: ноль. Этот массив рассылается через MPI_Allgather.

Элегантно? Не особенно. Но работает. На 152 064 узлах balanced random network модель считалась с производительностью 7.13 петафлопс. При этом на графиках масштабируемости видно: время на коммуникацию растёт линейно с числом узлов. Это потолок, который придётся пробивать.


Две модели: бенчмарк и реальность

Авторы гоняли два теста.

Первый — balanced random network. Стандартный бенчмарк для нейросимуляторов. 80% возбуждающих нейронов, 20% тормозных. Случайные связи. Синхронные осцилляции около 30 Гц. Простая модель, но она позволяет измерить scaling.

На weak scaling (больше узлов = больше нейронов, нагрузка на узел постоянна) время расчёта ионных токов и мембранных потенциалов оставалось плоским до 152 064 узлов. Росла только коммуникация.

На strong scaling (те же нейроны, больше узлов) общее время падало до самого конца диапазона. Симуляция, которая на 297 узлах занимала тысячу секунд, на 152 064 узлах укладывалась в двадцать.

Второй тест — собственно мышиная кора. 9 миллионов нейронов. 26 миллиардов синапсов. 86 регионов (43 области коры × 2 полушария) по Allen Mouse Brain Common Coordinate Framework. В каждом регионе — вертикальная колончатая структура с пятью или шестью слоями. 48 типов нейронов с разной морфологией и физиологией.

Синаптические связи оценены по данным мезоскопного коннектома мыши. Параметры синапсов — по большому датасету синаптической физиологии. Нейроны принимали входы только на сому (perisomatic models), а не на дендриты (all-active models). Это упрощение, но иначе расчёт стал бы в разы дороже.


Десять герц между полушариями

Авторы подали на все нейроны постоянный ток, чтобы они спонтанно генерировали спайки с низкой частотой. Большинство нейронов стреляли беспорядочно или замолкали. Но некоторые группы — а именно тормозные нейроны слоя 2/3 во фронтальной области (области 21 и 22, Frontal Pole) — начали синхронно осциллировать с частотой около 10 Гц.

И в левом полушарии, и в правом. Одновременно.

Авторы посчитали кросс-корреляцию популяционной активности между полушариями. На графике — чёткая осцилляция 10 Гц. Межполушарная синхронизация.

Это emergent property. Никто не закладывал в модель «сделай 10 Гц между полушариями». Это возникло само — из структуры связей, из динамики ионных каналов, из топологии коры.

Валидно ли это биологически? Честный ответ: неизвестно. Авторы не приводят сравнения с экспериментальными данными. Может быть, это настоящее открытие. Может быть, артефакт модели. Чтобы узнать, нужны записи реальной мышиной коры в сопоставимых условиях.

Но сам факт, что такой паттерн возник — это то, ради чего строят подобные модели. Увидеть то, что невозможно предсказать аналитически.


Цифры, которые стоит запомнить

Одна секунда биологического времени = 32 секунды wall-clock на полном Fugaku для модели коры.

Мышиная кора: 9 миллионов нейронов.
Кора макаки: 480 миллионов.
Кора человека: 21 миллиард.

По оценке Igarashi (2024), полная микроскопическая симуляция человеческой коры станет возможна около 2044 года. Если экстраполировать рост производительности суперкомпьютеров и считать, что алгоритмы не изменятся.

Fugaku потребляет мегаватты. Мозг мыши тратит около 0.5 ватта. Человеческий — около 20. Энергоэффективность биологии пока недосягаема.


Чего в модели нет

Пластичности. Синапсы не меняют свою силу. Нейроны не учатся. Это статический снимок, а не развивающаяся система.

All-active моделей. Ионные каналы только на соме, а не по всему дендритному дереву. Это сильное упрощение — дендритное computation, похоже, важно для функции.

Глии. Астроциты, олигодендроциты, микроглия — все они влияют на работу нейронов. В модели их нет.

Сравнения с экспериментом. Авторы показывают, что симуляция работает и масштабируется. Они не показывают, что она воспроизводит реальную нейронную активность.

Сравнения с другими симуляторами. Нет бенчмарков против NEURON или Arbor на той же модели. Авторы явно пишут: мы демонстрируем feasibility и scaling, не производительность относительно конкурентов.


Почему это интересно для ML-инженера

Иерархическая параллелизация MPI → OpenMP → SIMD — это паттерн, который применим далеко за пределами нейросимуляций. Любая задача с локальной связностью и глобальной коммуникацией выигрывает от такой декомпозиции.

Метод Хайнса — это алгоритм решения разреженных линейных систем на деревьях без fill-in. Полезно знать, что такое существует, когда структура данных — граф без циклов.

Neulite — пример того, как отказ от универсальности делает код простым. Две тысячи строк вместо сотен тысяч. Весь preprocessing вынесен во фронтенд. Ядро делает ровно одно.

И главное: это напоминание о том, что мы не понимаем вычисления, которые делает биологический мозг. GPT работает, но работает не так. Может быть, разница несущественна. А может быть, в ней ключ к чему-то, чего мы пока не видим.


Куда это ведёт

Fugaku полного масштаба хватит на симуляцию коры макаки. Один порядок величины вверх от мыши.

Для человеческой коры нужно ещё два порядка. Плюс переход от perisomatic к all-active моделям (это множитель несколько раз по вычислительной сложности). Плюс добавление пластичности. Плюс подкорковые структуры, мозжечок, ствол мозга.

Если верить оценкам Igarashi, полная микроскопическая симуляция человеческого мозга — дело 2040-х годов. При условии, что закон Мура продолжит работать хотя бы в каком-то виде.

Зачем это нужно? Три применения.

Первое: проверка теорий о том, как работает мозг. Если у тебя есть полная модель, ты можешь сломать любую её часть и посмотреть, что изменится. Виртуальная нейробиология.

Второе: понимание болезней. Шизофрения, эпилепсия, болезнь Альцгеймера — все они связаны с нарушениями на микроскопическом уровне. Модель позволяет тестировать гипотезы, которые невозможно проверить на живом мозге.

Третье: brain-inspired AI. Если мозг так эффективен при 20 ваттах, может, стоит понять, как именно он это делает. Не копировать слепо, но извлечь принципы.


Вместо заключения

В 2005 году Blue Brain Project анонсировал, что через десять лет построит работающую модель человеческого мозга. Не построил. Через двадцать лет — целая кора мыши. Прогресс медленнее, чем хотелось, но он есть.

Neulite на Fugaku — это proof of concept. Демонстрация того, что современные суперкомпьютеры достаточно мощны для микроскопических симуляций целого мозга млекопитающего. Не человеческого. Пока.

Самое интересное в статье — не цифры производительности. Интересно то, что модель начала показывать поведение, которое никто не программировал. Десять герц между полушариями. Может быть, это артефакт. Может быть, это открытие. Узнаем, когда сравним с экспериментом.

А пока — девять миллионов нейронов помещаются в CSV-файлы, симулятор умещается в две тысячи строк, и суперкомпьютер делает то, для чего был построен: считает то, что невозможно посчитать иначе.

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.