Jetzt kommt Hybrid-KI – und mit KI-PCs lässt sie sich optimal nutzen
KI wird zunehmend in Form von hybriden Modellen bereitgestellt, die Cloud-basierte LLMS (Large Language Models) mit KI an der Edge und am Endpunkt kombinieren. Laut ESG wird heute 40 % der GenAI-Auslastung vor Ort, an der Edge oder direkt auf KI-PCs bereitgestellt. Dieser Wandel ergibt sich aus Anforderungen an geringere Latenz, höhere Datensouveränität und eine bessere Vorhersehbarkeit der Kosten.
AMD KI-Technologien wie Ryzen™, EPYC™, Instinct™ und Radeon™ unterstützen ein breites Spektrum an Strategien für Hybrid-Infrastrukturen und bieten IT-Verantwortlichen die Möglichkeit, KI-Bereitstellungen flexibel und sicher zu skalieren, ohne sich auf eine reine Cloud-Architektur zu beschränken.