RAD - Publications 

La Recherche et développement (RAD) d'AMD attache une grande importance à la publication des principaux résultats d'études scientifiques dans les conférences et les revues évaluées par des pairs.

Les liens de cette page renvoient aux nombreuses publications de la RAD de ces dernières années.

2024

  • AI-Based Approaches in Network Security (Approches basées sur l'IA dans le domaine de la sécurité réseau) – AI4Good 2024
  • T3: Transparent Tracking & Triggering for Fine-grained Overlap of Compute and Collectives (Suivi et déclenchement transparents pour un chevauchement précis entre calculs et opérations collectives) – ASLLOS 2024
  • Integrating FPGA and GPU Acceleration to OpenMP Distributed Computing (Intégration de l'accélération FPGA et GPU dans les calculs distribués OpenMP) – FPL 2024
  • Turn-based Spatiotemporal Coherence for GPUs (Cohérence spatio-temporelle par itérations pour les GPU) – HiPEAC 2024
  • Networking Technologies for Handling AI Workloads (Technologies réseau pour la gestion des charges de travail d'IA) – ISC 2024
  • Sustainable Computing at Scale (Informatique durable à grande échelle) – MODSIM 2024

2023

  • Spectrum Usage and Occupancy Monitoring: Challenges and Software-Defined Radio Solutions (Surveillance de l'utilisation et de l'occupation du spectre : défis et solutions radio définies par software) – IIIE WCNC 2023
  • Improving DNN Throughput Via Intelligent Concurrent GEMM Executions (Améliorer le débit des DNN via l'exécution simultanée intelligente de GEMM) – arXiv 2023
  • The Next Era for Chiplet Innovation (La prochaine ère de l'innovation en matière de chiplets) – DATE 2023
  • Leveraging MLIR to Design for AI Engines (Concevoir des moteurs d'IA à l'aide du framework MLIR) – FCCM 2023
  • Reducing Internode Communication Using FPGA-Accelerated Neural Network Surrogate Models (Réduire la communication entre nœuds grâce à des modèles de substitution de réseaux neuronaux accélérés par FPGA) – FIRE 2023
  • Navigating the Future Landscape of System-On-Chip Technology (Vue d'ensemble de l'avenir de la technologie des systèmes sur puce) – IEEE SOCC 2023
  • Tale of Two Cs: Computation vs. Communication Scaling for Future Transformers on Future Hardware (Évolutivité des calculs et de la communication pour les transformateurs sur le hardware de demain) – IISWC 2023
  • SPARTA: Spatial Acceleration for Efficient and Scalable Horizontal Diffusion Weather Stencil Computation (SPARTA : accélération spatiale pour un calcul efficace et évolutif des stencil de diffusion horizontale en météorologie) – ICS 2023
  • Introduction to the AMD Versal ACAP Adaptable Intelligent Engine and to its Programming Model (Présentation du moteur intelligent adaptable AMD Versal ACAP et de son modèle de programmation) – SC 2023
  • Innovative Approaches to AI with Adaptive Computing (Approches innovantes de l'IA avec l'informatique adaptative) – SPL 2023

2022

2021

  • Analyzing and Leveraging Decoupled L1 Caches in GPUs (Analyse et exploitation des caches de niveau 1 découplés dans les GPU) - HPCA 2021
  • Deadline-Aware Offloading for High-Throughput Accelerators (Déchargement adapté aux délais pour les accélérateurs à haut débit) - HPCA 2021
  • Understanding Chiplets Today to Anticipate Future Integration Opportunities and Limits (Comprendre les chiplets aujourd'hui pour anticiper les opportunités et les limites d'intégration de demain) - DATE 2021
  • Systems-on-Chip with Strong Ordering (Systèmes sur puce à ordonnancement strict) - TACO
  • Pioneering Chiplet Technology and Design for AMD EPYC™ and Ryzen™ Processor Families (Technologie et conception de chiplets pour les processeurs AMD EPYC™ et Ryzen™) -ISCA 2021 (Session dédiée à l'industrie)
  • Quantifying Server Memory Frequency Margin and Using it to Improve Performance in HPC Systems (Quantifier la marge de fréquence mémoire des serveurs et l'utiliser pour améliorer les performances des systèmes HPC) - ISCA 2021
  • Interconnect Modeling for Homogeneous and Heterogeneous Multiprocessors (Modélisation des interconnexions pour les multiprocesseurs homogènes et hétérogènes) - Springer (chapitre)
  • Increasing GPU Translation Reach by Leveraging Under-Utilized On-Chip Resources (Accroître la portée de la traduction GPU en exploitant des ressources sur puce sous‑utilisées) - MICRO 2021
  • DUB: Dynamic Underclocking and Bypassing in Network-on-Chip for Heterogeneous GPU Workloads (DUB : sous‑cadençage dynamique et contournement dans les réseaux sur puce pour des charges de travail GPU hétérogènes) - NOCS 2021
  • A New Era of Tailored Computing (La nouvelle ère de l'informatique sur mesure) (article court) - VLSI Symposium 2021
  • Efficient Cache Utilization via Model-aware Data Placement for Recommendation Models (Utilisation efficace du cache grâce au placement de données optimisé pour les modèles de recommandation) - MEMSYS 2021
  • Virtual Coset Coding for Encrypted Non-Volatile Memories with Multi-Level Cells (Virtual Coset Coding pour des mémoires non volatiles chiffrées avec des cellules multiniveaux) – HPCA 2022
  • Using neural networks to reduce communication in numerical solution of partial differential equations (Utiliser les réseaux neuronaux pour réduire la communication dans la résolution numérique d'équations aux dérivées partielles) - NEURIPS 2021
  • Using physics-informed regularization to improve extrapolation capabilities of neural networks (Utiliser la régularisation guidée par la physique pour améliorer la capacité d'extrapolation des réseaux neuronaux) - NEURIPS 2021

2 020