概要

ニューラル ネットワークが大規模かつ複雑になるにつれて、低電力でより高い演算密度を得たいという需要の高まりが継続しています。避けて通れなくなったこの需要に、AMD XDNA™ NPU アーキテクチャでどう応えるのかについて説明します。

画像を拡大
プレースホルダー

AMD XDNA - AI エンジン

AMD XDNA は、AI エンジン プロセッサをタイル状の配列で構成した空間データフロー NPU アーキテクチャを採用しています。各 AI エンジン タイルには、ベクトル プロセッサ、スカラー プロセッサ、ローカル データおよびプログラム メモリが含まれています。データを繰り返しキャッシュからフェッチする必要がある (つまり、エネルギーを消費する) 従来のアーキテクチャとは異なり、AI エンジンは、オンチップ メモリとカスタム データフローを使用して、AI と信号処理のための効率的で低消費電力のコンピューティングを実現します。

タイル内

各 AI エンジンには、機械学習や最先端信号処理アプリケーションに最適化された VLIW (超長命令語) SIMD (単一命令複数データ) ベクター型プロセッサが内蔵されています。AI エンジンのプロセッサは、最大 1.3 GHz で動作するため、電力効率が良く、高スループットかつ低レイテンシの機能を実現できます。また各タイルには、データ、重み、アクティベーション、係数を格納するためのプログラムとローカル メモリ、さまざまなタイプのデータ通信を処理するための RISC スカラー プロセッサと相互接続モードが含まれています。

画像を拡大
プレースホルダー

AMD XDNA 2

次世代 AMD XDNA 2 は、PC での生成 AI エクスペリエンス向けに構築されており、優れたコンピューティング パフォーマンス、帯域幅、電力効率を実現します。

メリット

Big data analytics through machine learning, Artificial Intelligence concept background
プログラム可能なソフトウェア

AMD NPU はプログラム可能であり、数分でコンパイルできます。また、ライブラリベースの設計を活用して、ML フレームワーク開発者のワークフローを簡素化します。

Digital brain illustration on dark blue background, artificial intelligence
決定論的なメモリおよびエンジン

AMD NPU には、専用の命令メモリとデータ メモリに加え、DMA エンジンを組み合わせた専用のコネクティビティが含まれています。この DMA エンジンにより、AI エンジン タイル間の接続を使用して、スケジュールされたデータ移動を実行できます。

Cyber big data flow. Blockchain data fields. Network line connect stream
効率

AMD NPU は従来のアーキテクチャと比較して高い演算密度を提供し、優れた電力効率を促進します。

Generative ai embossed mesh representing internet connections in cloud computing
スケーラブル

AMD NPU は、複数の AI エンジン タイルを二次元に配列したものです。単一デバイスで数十から数百個の AI エンジンへと拡張でき、広範なアプリケーションの演算ニーズに対応できます。

関連製品