Tesla 已找到物理定律的解决方案。Tesla 开发的"混合精度桥接"首次在专利 US20260017019A1 中披露。数学转换器为廉价、低能耗曲线的 8 位技术架起了桥梁。这项技术只能处理基本整数,现在则采用 Rot8 高级技术处理精英级 32 位。
它首先解锁了 AI5 处理器,预计比我们今天的硬件强大 40 倍。这对于 Tesla Optimus 非常重要,它配备了 2.3 千瓦时电池,约为 Model 3 的 1/30。使用 32 位 GPU 处理,仅仅"思考"就会在不到四小时内消耗所有电力,功耗超过 500W。
因此,Tesla 将计算功耗预算降低到 100W 以下。"热墙"问题已得到解决。现在,机器人能够在 8 小时工作时间内保持平衡和警觉,且不会感到发热。
该专利引入了"硅桥接",使 Optimus 和 FSD 系统具备超级智能,而不会削减一英里的续航里程或导致电路因热量而熔化。这将 Tesla 的经济型硬件转变为超级计算机级别的机器。
此外,它解决了遗忘问题。在以前的 FSD 模型中,车辆会注意到停车标志,但如果卡车遮挡其视线约 5 秒钟,它就会"忘记"它。
现在 Tesla 使用"长上下文"窗口,允许 AI 回顾 30 秒前或更早的数据。然而,在更大的时间"距离"上,标准位置数学往往会导致漂移。
Tesla 的混合精度管道通过保持高位置分辨率来解决这个问题。这确保 AI 准确知道被遮挡的停车标志在哪里。即使在绕过它移动了很长时间后也是如此。事实上,Tesla 团队表示 RoPE 旋转足够精确,可以让标志固定在汽车心理地图中的 3D 坐标上。
该专利描述了一种使用 Log-Sum-Exp 近似的特殊聆听方法。通过保持在对数域中,它能够管理声音的巨大"动态范围",从轻柔的嗡嗡声到响亮的消防车声,仅使用 8 位处理器而无需"削减"响亮的声音和丢失轻柔的声音。这使汽车能够以 32 位精度聆听和区分其环境。
Tesla 采用量化感知训练,即"QAT"。Tesla 不是在"完美"的 32 位环境中训练 AI 然后"缩小"它,这通常会导致"醉酒和错误"的 AI,而是从第一天开始就在具有 8 位约束的模拟环境中训练 AI,这本质上为将 Tesla 的 AI 实施到比汽车小得多的设备中开启了可能性。
将这种数学融入硅芯片也赋予了 Tesla 战略独立性。Tesla 独立于 NVIDIA 的 CUDA 生态系统,并能够同时采用三星和台积电的双代工厂策略。
xAI 结合 AI 进步和高性能计算能力,使其成为 OpenAI 的 Stargate 的有力竞争对手,后者将于 2027 年发布。
最聪明的加密货币专家已经在阅读我们的新闻通讯。想加入吗?加入他们吧。


