server room

High-Performance Computing

High-Performance Computing (HPC) war traditionell gleichbedeutend mit wissenschaftlichem Computing und Supercomputern, aber inzwischen ist eine rasante Verbreitung von High-Performance-Funktionen in vielen anderen Bereichen zu beobachten. Dazu gehören CPUs und GPUs in Rechenzentren für Cloud Computing und maschinelles Lernen, unsere die Branche disruptiv verändernden Ryzen™ Threadripper™ CPUs für High-End-Desktops, unsere zahlreichen Gaming-Konsolen der nächsten Generation und die Ausrüstung von zwei HPC-Supercomputern, die voraussichtlich zu den weltweit schnellsten gehören werden (Frontier und El Capitan, zum Zeitpunkt der Erstellung dieses Dokuments (2020)). Die HPC-Aktivitäten von AMD Research treiben die grundlegenden Technologien voran, die zur weiteren Skalierung der Performance für alle Arten von AMD Produkten erforderlich sind. Schwerpunkte der HPC-Forschung sind:

  • GPUs: Wir entwickeln innovative Technologien zur Verbesserung der GPU-Rechenleistung, beispielsweise neuartige Hardware, neue Effizienzstufen und eine breitere Anwendbarkeit über Auslastungen hinweg durch Hardware-Software-Co-Design.
  • CPUs: Das Streben nach größerer Heterogenität und Beschleunigung erhöht die Wirkung des Amdahlschen Gesetzes. Daher setzen wir weiterhin auf CPU- und SoC-Mikroarchitektur, um sicherzustellen, dass GPUs und andere Beschleuniger ihr volles Potenzial ausschöpfen können.
  • Software: High-Performance ​Computing (HPC) geht es nicht nur darum, schnellere Hardware zu herzustellen, sondern auch dafür zu sorgen, dass die Software die Fähigkeiten der Hardware nutzen kann. Dazu gehört die Arbeit an Anwendungen, Frameworks, Compilern, Laufzeiten, Programmiermodellen und mehr.
  • Supercomputing: AMD Research arbeitet eng mit der US-Regierung in der Spitzenforschung für Exascale-Technologien zusammen. Wir arbeiten weiterhin an der Vorbereitung von HPC-Supercomputern wie Frontier und El Capitan und unternehmen Forschungsarbeiten über Exascale hinaus.
computer memory

Fortschrittliche Speichertechnologien

Die innovative Forschung nach leistungsfähigeren Speichersystemen hilft uns, weiterhin branchenführende Produkte für die Zukunft zu entwickeln. AMD kann auf eine lange Geschichte bei Innovationen von Speichersystemen zurückblicken. Beispielsweise waren wir das erste Unternehmen, das die 64-Bit-Adressierung für x86-Prozessoren einführte, das erste, das Speichercontroller in x86-Prozessoren integrierte und das erste, das HBM-Speicherin Massenprodukten lieferte. Heute ist AMD mit seiner Spitzenforschung in verschiedenen Bereichen weiterhin Vorreiter bei der Erschließung neuer Wege bei Speichertechnologien:

  • HPC-Speichersysteme: AMD Research führte umfangreiche Forschungen zu fortschrittlichen Speichersystemen für High-End-Supercomputer durch, was dazu beitrug, dass AMD zum erfolgreichen Anbieter von CPUs und GPUs für die Zukunft der Exascale-Systeme Frontier und El Capitan wurde. Wir setzen diese Bemühungen für Post-Exascale-HPC-Systeme sowie für Rechenzentren, Cloud-Computing und Maschinenintelligenz fort.
  • Processing-in-Memory: Um die mit der Datenverschiebung verbundene Energie zu reduzieren, untersuchen wir neuartige Processing-in-Memory-Lösungen, die die Berechnung auf Off-Chip-Speichergeräte auslagern, sowie die Integration von Datenkomprimierung und neuartigen Speichertechnologien, die die effektive On-Chip-Speicherdichte erhöhen.
  • Mehrstufiger intelligenter Speicher: Wir entwickeln intelligente Speichersystemdesigns, die mithilfe neuer Speichertechnologien kostengünstige und energieeffiziente Lösungen mit beispiellosen Speicherkapazitäten bei hoher Performance und Zuverlässigkeit liefern.
  • Speicherstandards der nächsten Generation: AMD Research arbeitet fortlaufend mit Speicheranbietern zusammen, um Standards der nächsten Generation zu definieren. Heute liefert AMD HBM2 in unseren Produkten und definiert in enger Zusammenarbeit mit Speicheranbietern zukünftige Generationen von 3D-Stacked-Speicherstandards.
digital brain image

Maschinenintelligenz

Maschinelles Lernen (ML) wirkt sich auf alle Bereiche aus, von den größten Supercomputern der Welt bis zu winzigen „Embedded“-Geräten, und ist eines der Hauptziele jeder Weiterentwicklung von Computersystemen. Die CPUs, GPUs, Beschleuniger und APUs von AMD bieten die Rechenleistung und Flexibilität, die für verschiedene ML-Bereitstellungen erforderlich sind.

Der Forschungsschwerpunkt für Maschinenintelligenz liegt primär darauf, AMD überall zur gewünschten Plattform für ML zu machen. Unsere Forschungsprojekte untersuchen mögliche Lösungen aus verschiedenen Richtungen:

  • Hardware: Von ML-Beschleunigung über Fortschritte in der Mikroarchitektur bis hin zu Systemarchitektur und Speichersystemen
  • Software: Programmiermodelle und Tools zur Vereinfachung der Bereitstellung von ML-Algorithmen auf zukünftigen AMD Plattformen
  • ML für die Wissenschaft: Erweiterung und Verbesserung herkömmlicher HPC-Anwendungen mit maschinellem Lernen, um die wissenschaftliche Forschung zu beschleunigen
  • ML für Chipdesign: Verwendung von ML zur Ermittlung optimaler Parameter und Konfigurationen in zukünftigen AMD Designs
lightbulb on motherboard

Energieeffizienz

Durch verbesserte Energieeffizienz können die Gesamtbetriebskosten (TCO) von Rechenzentren reduziert, Akkulaufzeiten für Notebooks und eingebettete Systeme verlängert, thermische Emissionen wirksamer gekühlt und bessere Rechnerleistungen geliefert werden. Bei AMD Research konzentrieren wir uns auf die Verbesserung der Energieeffizienz für die gesamte Palette von AMD SoCs, einschließlich CPUs und GPUs, von Rechenzentrumsservern über Clients bis hin zu mobilen Geräten. Durch unsere Forschung wollen wir ehrgeizige Energieeffizienzziele durch einen vielseitigen Ansatz erreichen:

  • Erweiterte Leistungssteuerung: Mit dem Ziel, den Stromverbrauch pro Anwendung zu senken, untersuchen wir derzeit hochmoderne Erweiterungen der AVFS-Technologie (Adaptive Voltage Frequency Scaling) von AMD, durch die sich zukünftige Stromverteilungsnetze schneller bedarfsgerecht an den Energiebedarf anpassen können. 
  • Niederspannungsdesign: Wir entdecken neue Möglichkeiten der Energieeinsparung durch spannende Forschungsprojekte in den Bereichen Niederspannungs-On-Chip-Speicher, adaptive Signalcodierung, asynchrone Kommunikation und Near-Threshold-Computing.
  • Energieeffiziente Systemarchitekturen: Wir erforschen kontinuierlich fortschrittliche Energie/Performance-Optimierungen für aktuelle und zukünftige Mikroarchitekturen, SoCs und HPC-Systeme. Diese reichen von der Minimierung der Datenverschiebung im System/SoC/Kern bis hin zu feingranularen Energiesparfunktionen in CPU-Blöcken.
  • Durch maschinelles Lernen gestütztes Design: Wir erforschen neue spannende Wege für energiesparende Designs, die durch die zunehmende Verbreitung von Maschinenintelligenz vorangetrieben werden.