Современный Deep Learning уперся в производительность вычислений с плавающей точкой и пропускную способность памяти. Мы предлагаем архитектуру, где нейрон — этоСовременный Deep Learning уперся в производительность вычислений с плавающей точкой и пропускную способность памяти. Мы предлагаем архитектуру, где нейрон — это

Архитектура «Обратного Хэша»: Нейросети без умножения

2026/02/13 18:22
2м. чтение

Современный Deep Learning уперся в производительность вычислений с плавающей точкой и пропускную способность памяти. Мы предлагаем архитектуру, где нейрон — это не сумма произведений, а битовая хэш-функция. Ноль умножений, ноль сложений. Только логика и статистика.

Концепт: Нейрон как компаратор

Классический нейрон: Activation(Sum(Weight * Input))
Наш нейрон: Output = A[ popcount( Input XOR Mask ) ]

Разберем формулу:

  1. Input (64 бита): Входные данные.

  2. Mask (64 бита): «Взгляд» нейрона. Фиксированный случайный шаблон.

  3. XOR: Битовое сравнение. 0 — совпадение, 1 — отличие.

  4. popcount: Аппаратная инструкция процессора (Population Count). Считает количество единиц в слове. Это Дистанция Хэмминга — насколько вход отличается от маски (число от 0 до 64).

  5. A [...] (LUT): Массив отклика. Это память нейрона, где хранится его «опыт».

Массив A: Эволюция от статистики к биту

Самое важное — как живет и меняется массив A.

1. Обучение (Накопление) *Концепт

На этапе обучения A — это массив счетчиков (например, uint16 размером 65 ячеек).

  • Подаем пример.

  • Вычисляем дистанцию dist = popcount( Input XOR Mask ).

  • Если пример «полезный» — делаем A[dist]++.

  • Мы просто копим гистограмму: при каком расстоянии Хэмминга этот нейрон должен активироваться.

2. Компиляция (Порог)

Обучение закончено. Мы превращаем «жирные» счетчики в чистую логику.
Применяем Threshold:

  • Если A[i] > порог — записываем 1.

  • Иначе — 0.

Теперь массив A — это набор битов. Так как индексов всего 65 (от 0 до 64), весь массив A сжимается в одно 64-битное целое число.

3. Инференс (Скорость)

В рабочем режиме нейрон — это два регистра процессора: Mask и сжатый A.
Логика умещается в 4 инструкции ассемблера:

  1. XOR (Сравнить маску и вход)

  2. POPCNT (Получить дистанцию)

  3. SHIFT (Сдвинуть сжатый массив A на величину дистанции)

  4. AND (Взять младший бит)

Никаких чтений из оперативной памяти. Никакого FPU. Теоретическая производительность ограничена только частотой процессора.

P.S.

Это концепт. Прямо сейчас архитектура существует в виде математической модели.
Следующим этапом здесь появится ссылка на Web-демо (MNIST 28x28), где можно будет нарисовать цифру и увидеть работу XOR-нейронов в реальном времени в браузере. (планируется ранговое кодированрие входа)

Но у меня только две руки. Если вам интересна тема Bitwise AI, низкоуровневой оптимизации (JS/WASM/C++) - буду рад обсуждению и помощи в создании Proof of Concept. Возможно потребуется доработка логики обучения

Let the bitwise revolution begin!

Источник

Возможности рынка
Логотип DeepBook
DeepBook Курс (DEEP)
$0,030015
$0,030015$0,030015
+2,73%
USD
График цены DeepBook (DEEP) в реальном времени
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.