엔드포인트에서 클라우드까지: 전체 스펙트럼을 지원하는 AMD
생성형 AI는 기업 고객의 운영 방식을 혁신하고 있습니다. 실제로 AI는 고객 서비스부터 데이터 분석에 이르기까지 거의 모든 비즈니스 프로세스에 빠르게 자리 잡고 있으며, 이러한 심층적인 통합은 기하급수적으로 증가할 것으로 예상됩니다. 이 단계에서 기업은 AI 기반으로 혁신을 이루어야 합니다. AI 통합 덕분에 엔터프라이즈의 새 시대가 펼쳐지고 있고, 워크로드와 프로세스를 재정의하고 있으며, 현재의 하드웨어 구성에 종종 큰 부담을 주는 기존 인프라에 새로운 요구 사항이 추가되고 있습니다.
고객이 원활한 AI 경험과 생산성의 이점을 즉각적으로 그리고 장기적으로 누리고자 한다면 IT 인프라를 발전시키는 데 도움이 필요합니다. 바로 여기서 AMD 기술이 등장하여 AI가 기여하는 새로운 가능성과 함께 기존 워크플로를 운영하기 위한 성능과 효율성을 기업에 제공합니다.
AMD EPYC™ 프로세서를 통해 열리는 AI와 가상화의 세상
AMD EPYC™ 프로세서는 전 세계 서버의 약 1/3을 구동하며 타당한 이유로 신뢰를 얻고 있습니다.1 5세대 AMD EPYC 프로세서는 세계 최고의 데이터 센터용 CPU를 기업 고객에게 공급하고 AI 리더십 기술을 지원하는 최대 192개 코어를 제공하면서, 오늘날 가장 까다로운 엔터프라이즈 애플리케이션을 구동합니다.2
AMD 고성능 CPU는 추천 시스템, 머신 러닝 솔루션, 기타 생성형 AI 사용과 같은 AI 워크로드를 배포하는 기업에 강력한 옵션을 제공합니다.
강력한 AMD EPYC 프로세서로의 업그레이드와 결합된 검증된 표준 인프라를 활용하면 고객은 서버 설치 공간, 전력 및 초기 지출을 낮게 유지하고 서버 성능과 밀도를 높일 수 있으므로 ROI를 개선하고 AI 역량을 더욱 쉽게 확장할 수 있습니다.
AMD EPYC 프로세서는 가상화 요구 사항과 관련하여 AI 워크로드뿐 아니라 물리적 서버 설치 공간의 통합 축소 부문에서 고객을 지원합니다. 일부의 경우 하드웨어 비용을 최대 33%3 , 다른 경우에는 라이선싱 비용을 최대 42%4 줄여줍니다. AMD EPYC 프로세서는 우수한 성능과 높은 코어 밀도를 제공하여 증가하고 있는 코어당 가상 머신(VM) 라이선싱 비용을 줄입니다. 여러 개의 낡은 코어로 소수의 VM을 실행하는 것이 아니라, 하나의 첨단 AMD EPYC CPU 코어로 문제없이 수십 대의 VM을 실행할 수 있습니다.
DBS 은행 및 Emirates NBD와 같은 고객은 AMD 서버 프로세서가 제공하는 이점을 이미 누리고 있습니다.
AMD Instinct™ 가속기를 통한 AI 가속화
대규모 AI 워크로드 및 사용 사례가 AMD EPYC™ CPU 단독으로 처리할 수 있는 것 이상의 역량을 요구할 수 있습니다. 대규모 언어 모델은 계속해서 수천억, 심지어 수조 개의 파라미터로 확대되고 있습니다.
하지만 다행히도 AMD는 가장 까다로운 AI 작업을 처리할 수 있는 다양한 워크로드 엔진을 제공합니다. AMD Instinct™ 가속기 덕분에 AMD EPYC 프로세서를 통해 AI 워크로드를 효과적으로 관리하는 방법을 확장하면서 새로운 수준의 GPU 가속화가 가능합니다. AMD 서버 CPU는 중소 규모 모델 및 혼합형 워크로드 추론 배포에 매우 효율적이며, AMD 가속기는 대용량, 실시간 AI 학습, 전용 배포 및 대규모 실시간 추론을 위해 설계되어 엔터프라이즈를 위한 AI 결과를 가속화합니다.
AMD는 AMD ROCm™ 소프트웨어 스택 기반의 플래그십 AMD Instinct™ MI350X 및 MI355X 가속기를 비롯해 다양한 성능 수준과 폼 팩터에 적합한 GPU 솔루션을 여러 가지 제공합니다. AMD ROCm™ 6 소프트웨어를 통해 AI 추론 컴퓨팅을 최대 330% 높이는 AMD 가속기는 엔터프라이즈의 AI 워크로드 운영 방법을 혁신할 준비가 되어 있습니다.5
AMD Instinct™ 가속기는 이미 세계에서 가장 까다로운 AI 플랫폼 중 일부를 구동하고 있습니다. 그중에는 Meta의 Llama 3.1 405B 모델도 포함되며, 출시 당시 모든 실시간 트래픽이 전적으로 AMD GPU에서만 실행되었습니다.6
AMD 가속화를 뒷받침하는 AMD ROCm™ 엔터프라이즈 지원 오픈 소스 소프트웨어를 통해 기업은 최대 200만 개의 Hugging Face 모델을 지원하고 PyTorch, OpenAI 등 다른 AI 리더들과 긴밀하게 협력하며 AI 워크로드를 신속하게 가동할 수 있습니다.
AMD Instinct™ 가속기에 대해 자세히 알아보세요.
AMD Ryzen™ 프로세서로 로컬 시스템에 AI 도입
이제 AI는 데이터 센터에서만 작동하는 것이 아니라 최종 사용자 기기에도 적용되어 사용자의 업무 방식을 개선하고 기존 프로세스를 향상하며 작업을 더 빠르고 쉽게 만들어 팀이 더 큰 그림에 집중할 수 있도록 합니다.
컴퓨터 칩 패키지의 테스트 및 조립 분야에서 선두를 달리고 있는 기업인 대만의 Advanced Semiconductor Engineering Inc.(ASE)는 리더십 AI 성능과 효율성을 이유로 AMD Ryzen™ CPU를 선택했습니다. 이 기업은 최근의 업그레이드를 통해 가장 집약적인 워크로드의 데이터 변환 및 그래픽 랜더링 속도를 개선하는 동시에 클라이언트 PC의 생산성을 약 30% 높일 수 있었습니다.
AMD Ryzen™ PRO 프로세서는 세계에서 가장 발전되고 전력 효율이 뛰어난 비즈니스 데스크탑용 프로세서로,7 x86 프로세서에서 최초로 통합된 AI 엔진을 제공합니다.8 서버에서 클라이언트 기기에 이르는 이러한 수준의 AI 지원은 이전에는 불가능했던 놀라운 기능을 실현합니다.
AMD Ryzen™ PRO 프로세서에 대해 자세히 알아보세요.
에지 AI를 위한 AMD Versal™ Adaptive SoC로 그림 완성
그러나 AI는 PC와 서버에만 국한되지 않습니다. 에지 기기에서의 로컬 AI 프로세싱이 성능과 안전에 막대한 영향을 미칠 수 있는 응용 분야가 많습니다.
자동차 분야에서 에지 AI는 센서 데이터를 로컬에서 처리하여 실시간으로 의사 결정을 내릴 수 있게 함으로써 안전성을 강화할 수 있습니다. 자율 주행 차량이 사고를 피하기 위해 브레이크 작동 여부를 판단해야 하는데 클라우드에서 데이터가 처리될 때까지 기다리는 것은 바람직하지 않습니다.
의료 분야에서 에지 AI는 영상 장비를 개선하여 진단을 가속화하거나 실시간 시각화를 제공하여 수술을 도울 수 있습니다. 또한 클라우드를 통해 데이터를 전송할 필요가 없으므로 환자의 개인 정보를 보호하는 데에도 도움이 됩니다.
산업 분야에서 에지 AI는 공장 장비가 더 안전하고 효율적으로 작동하는 데 도움이 될 수 있습니다. AMD FPGA 및 적응형 SoC는 AI 기반 및 기존 내장형 시스템의 데이터 전처리, 추론, 후처리를 효율적으로 관리하며, 최신 제품인 AMD Versal™ AI Edge 시리즈 Gen 2 Adaptive SoC는 이러한 모든 기능을 단일 칩에서 처리합니다.
AMD Versal 제품을 통해 고객은 비즈니스의 모든 측면에 AI를 적용하여 기존 소비자 및 산업 환경을 더욱 스마트하게 만들고 AI로 활성화할 수 있습니다.
AMD Versal™ Adaptive SoC에 대해 자세히 알아보세요.
AI의 이점은 광범위하며 최신 컴퓨팅을 이루는 일부가 되어 가고 있습니다. 기업이 이러한 이점을 활용하려면 AMD의 기술과 같은 혁신적인 기술을 채택하고 적용해야 합니다.
클라우드, 온프레미스 또는 에지에서 워크로드를 최적화하고 있는 경우, AMD의 포괄적인 AI 포트폴리오는 개방형 표준, 생태계 파트너십, 장기 혁신을 위해 설계된 로드맵 등으로 뒷받침되는 맞춤형 솔루션을 제공합니다. AMD 제품과 성장하는 AI 생태계에 대한 AMD의 지원에 대해 자세히 알아보려면 현지 담당자에게 문의하거나 AMD AI 솔루션을 방문하세요.
AMD Arena
AMD Ryzen™ PRO, AMD EPYC™, AMD Instinct™ 등에 대한 교육을 통해 AMD 제품 지식을 향상하세요.
구독하기
AMD의 최신 제품, 교육 리소스, 전문가와의 만남 웨비나에 대한 월간 소식을 받으세요.

관련 문서
각주
- EPYC-055: Mercury Research 판매 수익 출하 추정치, 2025년 1분기. 매출 점유율 39.4%, 장치 점유율 27.2%
- EPYC-029D: 2024년 10월 10일 기준 출하 중인 서버의 스레드 밀도, 성능, 기능, 처리 기술, 빌트인 보안 기능을 기반으로 한 비교. EPYC 9005 시리즈 CPU는 최고 수준의 스레드 밀도를 제공하고, 성능 세계 기록과 엔터프라이즈 리더십 Java® 초당 ops 성능을 포함하여 500개 이상의 성능 세계 기록으로 업계를 선도하며, 최고의 HPC 리더십과 부동 소수점 처리율 성능, TPCx-AI 성능을 포함한 AI 종합 성능 및 최고 수준의 에너지 효율성 점수를 제공합니다. 5세대 제온과 대비해 5세대 EPYC 시리즈는 메모리 대역폭이 더 크고 DDR5 메모리 채널이 더 많으며, I/O 처리율을 위한 PCIe® Gen5 레인을 더 많이 지원하고, 최대 5배의 코어당 L3 캐시로 데이터 액세스 속도도 더 빠릅니다. EPYC 9005 시리즈는 고급 3~4nm 기술을 사용하며 보안 메모리 암호화 + 보안 암호 가상화(SEV) + SEV 암호화 상태 + SEV-보안 네스티드 페이지 보안 기능을 제공합니다. 자세한 사항은 https://www.amd.com/ko/legal/claims/epyc.html#q=#029D 를 참조하세요.
- SP5TCO-073A: 2024년 6월 18일 기준, 이 시나리오에는 많은 가정 및 추정이 포함되고 AMD 내부 연구 및 최대 근사치에 기반하지만 정보 제공 목적의 예시로만 간주해야 하며 실제 테스트에 대한 의사 결정의 기준으로 사용되어서는 안 됩니다. 서버 교체 및 온실가스 배출 TCO(총 소유 비용) 견적 툴은 인텔 제온 및 AMD EPYC CPU 기반 서버에 대해 공개된 점수(또는 별표로 표시된 경우 추정치)에 기초한 약 9020개 유닛의 VMmark3 매칭 페어 성능의 TOTAL_PERFORMANCE 제공에 필요한 선별된 AMD EPYC™ 및 인텔® 제온® CPU 기반 서버 솔루션을 비교합니다. 이 추산은 5년의 기간을 반영합니다. 26개 타일에서 VMmark 3.1 점수가 26.95인 2P AMD 48 코어 EPYC_9474F 기반 서버 (https://www.vmware.com/docs/2024-05-14-supermicro-as-2125hs-tnr) 를 28개 타일에서 VMmark 3.1 점수가 27.52인 2P 인텔 제온 64 코어 Platinum_8592+ 기반 서버 (https://www.vmware.com/docs/2024-04-16-fujitsu-primergy-rx2540m7) 와 비교한 분석 결과입니다. 결과 생성: AMD EPYC™ 서버 교체 및 온실가스 배출 TCO 견적 툴 - 버전 1.51 PRO. VMmark는 미국 또는 기타 국가에서 VMware의 등록 상표입니다. 자세한 사항은 https://www.amd.com/ko/legal/claims/epyc.html#q=%23SP5TCO-073A를 참조하세요.
- https://www.amd.com/content/dam/amd/en/documents/epyc-business-docs/white-papers/modernize-data-center-virtualization-with-amd-epyc-processors.pdf
- MI350-044: 2025년 6월 9일 기준 AMD 내부 테스트를 기반으로 합니다. 8개의 GPU로 구성된 AMD Instinct™ MI355X 플랫폼을 사용하여 Llama 3.1-405B 채팅 모델(FP4)의 온라인 서비스 추론 처리량을 측정하였으며, 이를 8개의 GPU로 구성된 AMD Instinct™ MI300X 플랫폼(FP8)의 성능과 비교했습니다. 테스트는 입력 길이 32,768 토큰과 출력 길이 1,024 토큰을 사용하여 수행되었으며, 각 플랫폼에서 60ms 성능을 달성하기 위해 최적의 처리량 동시성을 설정했습니다. 그 결과 MI300X 플랫폼은 35.3ms, MI355X 플랫폼은 50.6ms를 기록했습니다. 서버 제조업체별 구성에 따라 다른 결과가 나올 수 있습니다. 최신 드라이버의 사용 여부 및 최적화에 따라 성능이 달라질 수 있습니다. MI350-044
- https://youtu.be/vJ8aEO6ggOs?t=3100
- GD-203: 2023년 9월 기준, x86 플랫폼을 위한 AMD 프로세서의 작은 노드 크기에 기초함.
- PXD-03: 2024년 1월 기준, AMD는 데스크탑 PC 프로세서에 사용 가능한 최초의 전용 AI 엔진을 탑재하였으며, 여기서 '전용 AI 엔진'은 AI 추론 모델 처리 이외의 기능을 수행하지 않고 x86 프로세서 다이의 일부인 AI 엔진으로 정의됩니다. 자세한 내용은 https://www.amd.com/ko/products/processors/consumer/ryzen-ai.html을 참조하세요.
- EPYC-055: Mercury Research 판매 수익 출하 추정치, 2025년 1분기. 매출 점유율 39.4%, 장치 점유율 27.2%
- EPYC-029D: 2024년 10월 10일 기준 출하 중인 서버의 스레드 밀도, 성능, 기능, 처리 기술, 빌트인 보안 기능을 기반으로 한 비교. EPYC 9005 시리즈 CPU는 최고 수준의 스레드 밀도를 제공하고, 성능 세계 기록과 엔터프라이즈 리더십 Java® 초당 ops 성능을 포함하여 500개 이상의 성능 세계 기록으로 업계를 선도하며, 최고의 HPC 리더십과 부동 소수점 처리율 성능, TPCx-AI 성능을 포함한 AI 종합 성능 및 최고 수준의 에너지 효율성 점수를 제공합니다. 5세대 제온과 대비해 5세대 EPYC 시리즈는 메모리 대역폭이 더 크고 DDR5 메모리 채널이 더 많으며, I/O 처리율을 위한 PCIe® Gen5 레인을 더 많이 지원하고, 최대 5배의 코어당 L3 캐시로 데이터 액세스 속도도 더 빠릅니다. EPYC 9005 시리즈는 고급 3~4nm 기술을 사용하며 보안 메모리 암호화 + 보안 암호 가상화(SEV) + SEV 암호화 상태 + SEV-보안 네스티드 페이지 보안 기능을 제공합니다. 자세한 사항은 https://www.amd.com/ko/legal/claims/epyc.html#q=#029D 를 참조하세요.
- SP5TCO-073A: 2024년 6월 18일 기준, 이 시나리오에는 많은 가정 및 추정이 포함되고 AMD 내부 연구 및 최대 근사치에 기반하지만 정보 제공 목적의 예시로만 간주해야 하며 실제 테스트에 대한 의사 결정의 기준으로 사용되어서는 안 됩니다. 서버 교체 및 온실가스 배출 TCO(총 소유 비용) 견적 툴은 인텔 제온 및 AMD EPYC CPU 기반 서버에 대해 공개된 점수(또는 별표로 표시된 경우 추정치)에 기초한 약 9020개 유닛의 VMmark3 매칭 페어 성능의 TOTAL_PERFORMANCE 제공에 필요한 선별된 AMD EPYC™ 및 인텔® 제온® CPU 기반 서버 솔루션을 비교합니다. 이 추산은 5년의 기간을 반영합니다. 26개 타일에서 VMmark 3.1 점수가 26.95인 2P AMD 48 코어 EPYC_9474F 기반 서버 (https://www.vmware.com/docs/2024-05-14-supermicro-as-2125hs-tnr) 를 28개 타일에서 VMmark 3.1 점수가 27.52인 2P 인텔 제온 64 코어 Platinum_8592+ 기반 서버 (https://www.vmware.com/docs/2024-04-16-fujitsu-primergy-rx2540m7) 와 비교한 분석 결과입니다. 결과 생성: AMD EPYC™ 서버 교체 및 온실가스 배출 TCO 견적 툴 - 버전 1.51 PRO. VMmark는 미국 또는 기타 국가에서 VMware의 등록 상표입니다. 자세한 사항은 https://www.amd.com/ko/legal/claims/epyc.html#q=%23SP5TCO-073A를 참조하세요.
- https://www.amd.com/content/dam/amd/en/documents/epyc-business-docs/white-papers/modernize-data-center-virtualization-with-amd-epyc-processors.pdf
- MI350-044: 2025년 6월 9일 기준 AMD 내부 테스트를 기반으로 합니다. 8개의 GPU로 구성된 AMD Instinct™ MI355X 플랫폼을 사용하여 Llama 3.1-405B 채팅 모델(FP4)의 온라인 서비스 추론 처리량을 측정하였으며, 이를 8개의 GPU로 구성된 AMD Instinct™ MI300X 플랫폼(FP8)의 성능과 비교했습니다. 테스트는 입력 길이 32,768 토큰과 출력 길이 1,024 토큰을 사용하여 수행되었으며, 각 플랫폼에서 60ms 성능을 달성하기 위해 최적의 처리량 동시성을 설정했습니다. 그 결과 MI300X 플랫폼은 35.3ms, MI355X 플랫폼은 50.6ms를 기록했습니다. 서버 제조업체별 구성에 따라 다른 결과가 나올 수 있습니다. 최신 드라이버의 사용 여부 및 최적화에 따라 성능이 달라질 수 있습니다. MI350-044
- https://youtu.be/vJ8aEO6ggOs?t=3100
- GD-203: 2023년 9월 기준, x86 플랫폼을 위한 AMD 프로세서의 작은 노드 크기에 기초함.
- PXD-03: 2024년 1월 기준, AMD는 데스크탑 PC 프로세서에 사용 가능한 최초의 전용 AI 엔진을 탑재하였으며, 여기서 '전용 AI 엔진'은 AI 추론 모델 처리 이외의 기능을 수행하지 않고 x86 프로세서 다이의 일부인 AI 엔진으로 정의됩니다. 자세한 내용은 https://www.amd.com/ko/products/processors/consumer/ryzen-ai.html을 참조하세요.