Optimisations logicielles d'AMD pour l'inférence d'IA
Prise en charge d'infrastructures : AMD prend en charge les infrastructures d'IA les plus populaires, notamment TensorFlow, PyTorch et ONNX Runtime, pour couvrir divers cas d'utilisation tels que la classification d'images et les moteurs de recommandation.
Open source et compatibilité : les optimisations sont intégrées aux infrastructures courantes offrant une compatibilité étendue et une facilité d'utilisation des structures open source en amont. De plus, AMD travaille avec Hugging Face pour permettre à ses modèles open source de fonctionner immédiatement avec ZenDNN.
Modules complémentaires ZenDNN : ces modules complémentaires accélèrent les charges de travail d'inférence d'IA en optimisant les opérateurs, en exploitant les micro-noyaux et en mettant en œuvre un multithreading efficace sur les cœurs AMD EPYC.