AlphabetのGoogle部門は水曜日、2つの専用人工知能プロセッサを発表した。これはテンソル処理ユニットアーキテクチャが初めてトレーニングと推論処理のために別々のチップに分離されたことを示す。
TPU 8tはAIモデルのトレーニング専用に設計されており、一方のTPU 8iは推論——学習済みモデルを実世界のアプリケーションに展開するプロセス——に特化している。Broadcomが共同開発パートナーを務め、10年以上にわたるコラボレーションを継続している。
Alphabet Inc., GOOGL
これは従来のアプローチからの戦略的転換を意味する。以前のTPUは1つのプロセッサ内にトレーニングと推論の両機能を統合していた。Googleはこの変更をエージェント型AIシステムの台頭——最小限の人間の監督のもとで継続的なフィードバックループで動作する自律型モデル——に起因するとしており、より目的特化型のシリコンが必要とされている。
推論向けのTPU 8iはプロセッサあたり384メガバイトのSRAMを搭載——Ironwoodの3倍の容量。Googleによると、このアーキテクチャの改善により「待合室」ボトルネックが解消され、複数のユーザーが同時にモデルに問い合わせる際に発生する遅延スパイクが軽減される。
Ironwoodと比較して、TPU 8iはコスト効率が80%向上した。実運用面では、予算を増やすことなくほぼ2倍のユーザー需要に対応できる。
チップはまた、ワット当たりの消費電力効率が最大2倍向上しており、リアルタイムのワークロード要件に基づいてエネルギー消費を調整する動的電力管理技術によって実現されている。
初めて、両プロセッサはホストプロセッサとしてGoogleのAxion CPUを採用し、個々のチップ性能への改善にとどまらず、システムアーキテクチャレベルでの最適化を可能にしている。
トレーニング性能については、TPU 8tのスーパーポッド構成が最大9,600プロセッサのクラスターをサポートし、2ペタバイトの高帯域幅メモリを備えている。これはIronwoodのチップ間通信帯域幅の2倍に相当し、Googleはフロンティアモデルの開発期間を数ヶ月から数週間に短縮できると主張している。
トレーニングプロセッサは、同等の価格帯において第7世代Ironwoodアーキテクチャの2.8倍の演算性能を発揮する。
早期導入が勢いを増している。Citadel SecuritiesはGoogleのTPUインフラを活用した定量的リサーチプラットフォームを開発した。米国エネルギー省の全17の国立研究所がこのプロセッサ上でAI共同研究アプリケーションを運用している。AnthropicはGoogleのTPUコンピューティング容量を複数ギガワット利用することを約束している。
DA Davidsonのアナリストは9月に、GoogleのTPU部門がGoogle DeepMindと組み合わさった場合、9,000億ドルに近い評価額を見込める可能性があると予測した。
GoogleはTPUの独占的な流通モデルを維持しており——直接購入はできず、Google Cloudサービスを通じてのみアクセス可能。NvidiaはGoogleへのGPUハードウェアの供給を継続しており、同社は今年後半にNvidiaの次期Vera Rubinプラットフォームを提供する初期クラウドサービスプロバイダーの一つになることを確認した。
これらのプロセッサはGoogle DeepMindとの緊密な連携のもとで設計され、GeminiLanguageモデルのトレーニングやSearchおよびYouTubeプラットフォームを支えるアルゴリズムの最適化に活用されている。
Googleは、TPU 8tとTPU 8iの両方が2025年後半にクラウドプラットフォームの顧客向けに一般提供される予定であると発表した。
この記事はBlockonomiに最初に掲載されました。Alphabet(GOOGL)がBroadcomと共同開発した第8世代デュアルパーパスTPUチップを発表。


