Einführung

Da neuronale Netzwerke immer größer und komplexer werden, steigt die Nachfrage nach einer höheren Rechendichte mit niedrigeren Betriebskosten weiter. Erfahren Sie, wie die AMD XDNA™ NPU-Architektur diesem Bedarf gerecht wird.

Bildzoom
Platzhalter

AMD XDNA – KI-Engine

AMD XDNA ist eine NPU-Architektur mit räumlichem Datenfluss, die aus einer Anordnung von KI-Engine-Prozessoren besteht. Jede KI-Engine-Kachel enthält einen Vektorprozessor, einen skalaren Prozessor sowie lokale Daten- und Programmspeicher. Im Gegensatz zu herkömmlichen Architekturen, bei denen wiederholt Daten aus Caches abgerufen werden müssen (was Energie verbraucht), verwendet die KI-Engine On-Chip-Speicher und benutzerdefinierten Datenfluss, um effizientes, energiesparendes Computing für KI und Signalverarbeitung zu ermöglichen.

Innerhalb der Kachel

Jede KI-Engine-Kachel besteht aus einem VLIW- (Very Long Instruction Word), SIMD- (Single Instruction Multiple Data) Vektorprozessor, der für maschinelles Lernen und erweiterte Signalverarbeitungsanwendungen optimiert ist. Der Prozessor der KI-Engine kann mit über 1,3 GHz laufen, was effiziente Funktionen mit hohem Durchsatz und geringer Latenz ermöglicht. Jede Kachel enthält außerdem Programm- und lokalen Speicher zum Speichern von Daten, Gewichtungen, Aktivierungen und Koeffizienten, einen RISC-Skalarprozessor und verschiedene Verbindungsmodi für die Verarbeitung verschiedener Arten der Datenkommunikation.

Bildzoom
Platzhalter

AMD XDNA 2

AMD XDNA 2 der nächsten Generation wurde für Generative AI-Anwendungen in PCs entwickelt und bietet außergewöhnliche Rechenleistung, Bandbreite und Energieeffizienz.

Vorteile

Big data analytics through machine learning, Artificial Intelligence concept background
Software-Programmierbarkeit

Die AMD NPU ist programmierbar und kann innerhalb von Minuten kompiliert werden. Außerdem wird ein bibliotheksbasiertes Design genutzt, um den Workflow für ML-Framework-Entwickler zu vereinfachen.

Digital brain illustration on dark blue background, artificial intelligence
Deterministisch

Die AMD NPU umfasst dedizierte Befehls- und Datenspeicher sowie dedizierte Konnektivität gekoppelt mit DMA-Engines für die geplante Datenverschiebung mithilfe von Konnektivität zwischen KI-Engine-Kacheln.

Cyber big data flow. Blockchain data fields. Network line connect stream
Effizient

Die AMD NPU bietet im Vergleich zu herkömmlichen Architekturen eine höhere Rechendichte und sorgt für eine außergewöhnliche Energieeffizienz.

Generative ai embossed mesh representing internet connections in cloud computing
Skalierbar

Die AMD NPU ist als 2D-Arrays konzipiert, die aus mehreren KI-Engine-Kacheln bestehen. Sie ermöglichen die Skalierung von 10 auf 100 KI-Engine-Kacheln in einem einzigen Gerät und erfüllen so die Rechenanforderungen einer Vielzahl von Anwendungen.

Verwandte Produkte

AMD Versal™

Adaptive AMD Versal™ SoCs

Adaptive AMD Versal SoCs bieten herausragende Performance für eine Vielzahl von integrierten Anwendungen – von der Automobilindustrie über die Kommunikation bis hin zu Rechenzentren, Industrie und darüber hinaus.