첫 데이터센터 CPU 출시한 Nvidia, GTC 2021 발표내용 총정리

Nvidia가 원격으로 열린 GTC 2021 행사에서 자사 첫 데이터센터용 CPU인 Grace를 비롯해 차세대 DPU인 BlueField-3, 가상 디자인 및 협업 플랫폼 Omniverse, AI 사이버보안 프레임워크 Morpheus, 대화형 AI 프레임워크 Jarvis, 자율주행용 SoC인 Drive Atlan, 클라우드 네이티브 슈퍼컴퓨터 DGX Station A100, AI 개발을 위한 엔터프라이즈 워크플로우 TAO 등 다수의 내용을 발표했습니다. 


GTC 2021 키노트 스피치

출처: YouTube



거대 AI 모델을 위한 첫 데이터센터 CPU, Grace


이 중 가장 눈길을 끌었던 것은 대규모 AI 및 하이 퍼포먼스 컴퓨팅을 위한 ARM 기반 CPU인 Grace 였는데요. "테라바이트 스케일 컴퓨팅을 위해 디자인 된 세계 최초의 CPU"로 소개된 Grace는 1조 파라미터 이상의 차세대 NLP 모델과 같은 워크로드를 처리하는데 고도로 특화된 프로세서로, Nvidia GPU와 결합하여 사용할 경우 Intel이나 AMD의 x86 CPU 상에서 운용되는 기존의 Nvidia DGX 기반 시스템에 비해 10배 빠른 퍼포먼스를 제공합니다. 


이같은 Grace의 퍼포먼스는 Grace와 Nvidia GPU가 서로 초당 900GB 속도로 데이터를 주고받을 수 있도록 하는 4세대 Nvidia NVLink 인터커넥트 기술에 기반한 것으로, 이는 현존하는 주요 서버들에 비해 30배 높은 대역폭(aggregate bandwidth)을 지원하는 것입니다. Grace는 아울러 ARM의 차세대 CPU 코어인 Neoverse와 기존 DDR4 메모리 대비 10배 향상된 에너지 효율성과 2배 높은 대역폭을 지원하는 LPDDR5x 서브시스템을 결합함으로써 에너지 효율 역시 크게 개선시켰습니다. 


Nvidia Grace

출처: Nvidia 


키노트 스피치를 통해 Grace를 선보인 Nvida의 CEO인 Jensen Huang은 "라이센싱한 ARM IP를 이용해 Grace를 AI와 HPC에 특화된 CPU로 설계했다"며, GPU, DPU와 함께 Grace는 컴퓨팅을 위한 세 번째 기반기술과 AI의 전진을 위해 데이터센터를 재설계(re-architect)할 수 있도록 하는 역량을 제공한다. Nvidia는 이제 세 가지 종류의 칩을 제공하는 기업(Nvidia is now a three-chip company)"이라고 과시했습니다. 


Tirias Research의 Kevin Krewell는 이와 관련해 "Grace 플랫폼과 Arm CPU는 Nvidia에 있어서 커다란 진일보"라면서 "NVlinks를 기반으로 GPU와 연결된 단일한 커스텀 CPU를 통해 현재 기술로는 처리에서 수일 이상이 소요되는 초대형(ultra-large) AI 모델로 스케일을 확대하려는 Nvidia의 새로운 구상"을 Grace를 통해 확인할 수 있다고 평가했습니다. 


Moor Insights & Strategies의 애널리스트인 Patrick Moorhead는 역시 "GTC 21의 최대 발표는 Grace"라며 Grace가 1조 파라미터 이상 규모의 AI를 겨냥해 Nvidia GPU와 고도의 통합성(tightly integrated)을 가지도록 설계되었다는 점에 주목했는데요. 이는 PCIe 기술을 기반으로 연결된 전통적인 x86 CPU와 GPU와는 성격이 다른 것으로, AMD와 Intel의 범용 데이터센터 CPU와 혼동되어서는 안된다는 설명입니다. 


Grace의 출시가 Nvidia와 Intel, AMD 등 기존 데이터센터 칩 제조사들과의 파트너십에 부담으로 작용할 것이라는 우려와 관련해, Jensen Huang 역시 "우리의 기본적인 성향은 누군가가 이미 만들고 있는 건 만들지 않는 것"이라면서 Grace는 현존하는 아키텍쳐로는 처리되기 어려운 "거대한 규모의 AI 모델의 학습이라는 유니크한 문제를 해결하기 위해 개발"되었음을 강조했습니다. 


Grace는 2023년 출시될 예정으로 Nvidia는 Swiss Supercomputing Center와 미국 에너지부(Department of Energy)의 Los Alamos National Laboratory를 첫 고객으로 발표했습니다. 이와 관련해 Venture Beat는 현존하는 최대 규모의 AI 모델들은 수십억 파라미터 규모로, 두 달 반마다 그 규모가 두 배씩 커지고 있다면서, 이같은 AI 데이터 규모의 기하급수적 증가가 Grace와 같이 GPU와의 긴밀한 연결을 통해 시스템 보틀넥을 제거할 수 있는 새로운 형태의 CPU에 대한 수요로 이어질 것이라는 관측을 전했습니다. 


Huang 역시 Grace의 상업성을 묻는 질문에 대해 "GPU가 (처음에는) 0 달러 규모 시장이었던 것과 마찬가지" Grace와 같은 거대 AI 모델 전용 커스텀 CPU에 대한 시장 역시 "정확한 규모는 모르지만, 매우 큰 규모가 되리라는 게 나의 직감"이라며 "0 달러 규모의 시장을 좇는 것이 우리가 산업에 기여하는 방식"이라고 밝혔습니다. 


참조 자료 출처: Venture Beat, ZD Net 



엔지니어들을 위한 메타버스, Omniverse Enterprise


지난해 12월 베타 런칭했던 Omniverse의 엔터프라이즈 버전인 Omniverse Enterprise의 출시 소식도 눈길을 끌었습니다. 엔지니어를 위한 메타버스로 소개된 Omniverse는 Nvidia의 RTX 3D 시뮬레이션 기술을 기반으로 여러 엔지니어들이 Google Doc 문서를 함께 편집하는 것처럼 가상환경에서 협업할 수 있도록 하는 디자인 및 콜라보레이션 플랫폼입니다. 


Nvidia Omniverse

출처: Youtube


Nvidia가 발표한 바에 의하면, BMW Group, Ericsson, Foster + Partners, WPP 등이 이미 Omniverse를 이용하고 있는 중으로, BMW Group의 경우 Omniverse를 이용해 자사 공장의 디지털 트윈을 구축하였는데요. BMW는 글로벌 제조 네트워크 내의 수천명의 플래너, 프로덕트 매니저, 시설 매니저 및 전문가들이 Omniverse를 통해 단일한 가상 환경에서 디자인 및 플래닝, 엔지니어링, 최적화에 협력하고 있다면서 이를 통해 플래닝 프로세스를 30% 더 효율화시킬 수 있었다고 전했습니다. 


게임 퍼블리셔 Activision은 Omniverse를 이용해 100,000 개 이상의 3D 자산을 관리하고 있으며, WPP의 경우 전통적인 on-location 광고 콘텐츠 제작을 Omniverse를 이용함으로써 전적으로 가상 환경에서의 제작으로 대체하였다고 밝혔습니다. Foster + Partners 역시 14개 국에 퍼져 있는 팀원들이 Omniverse를 통해 심리스하게 공동 디자인 및 시각화를 수행할 수 있도록 하고 있으며, Ericsson는 Omniverse 내에서 자사 5G 무선 네트워크를 시뮬레이션 하고 있습니다.  


Nvidia는 연내로 Omniverse를 엔터프라이즈용 섭스크립션 서비스 형태로 런칭할 계획으로, 올해 여름까지 총 400개 기업들이 Omniverse Enterprise를 이용하기 시작할 예정이라고 밝혔습니다. 아울러 인프라 엔지니어링 소프트웨어 업체 Bentley Systems를 비롯해 Adobe, Autodesk, Epic Games, ESRI, Graphisoft, Trimble, Robert McNeel & Associates, Blender, Marvelous Designer, Reallusion, Wrnch 등의 서드파티 파트너들 역시 Omniverse 용 앱을 지원하기 시작할 예정입니다.  


참조 자료 출처: Venture BeatZD Net 



차세대 DPU BlueField-3


BlueField-3의 경우 DPU(Data Processing Units) 라인업의 최신 제품으로, 데이터센터 인프라를 애플리케이션으로부터 오프로드 및 고립시킴으로써 소프트웨어 정의(software-defined) 네트워킹 및 스토리지, 사이버 보안을 가속화할 수 있도록 설계되었습니다. DPU는 Nvidia가 지난해 12월 처음 공개했던 새로운 종류의 프로세서로, 당시 Nvidia는 2021년에 BlueField 2와 BlueField 2X를 출시한 뒤, 2022년에 BlueField 3과 BlueField 3X, 2023년에 BlueField 4를 공개하는 로드맵을 제시한 바 있었습니다. 


BlueField-3

출처: Nvidia


이번에 공개된 BlueField-3는 5세대 PCIe 기술과 시간 동기화 데이터센터 가속화를 지원하는 첫 DPU 제품으로, 16개의 ARM A78 코어가 탑재되어 최대 300 CPU 코어에 해당하는 데이터센터 서비스를 제공합니다. 전세대 제품인 BlueField-2에 비해서는 10배 가속화된 컴푸팅 성능과 4배 빠른 암호화 속도를 지원하며, 전세대와 마찬가지로 DOCA SDK를 지원합니다. DOCA는 DPU 가속(DPU-accelerated) 데이터센터 인프라 서비스 상에서 애플리케이션을 개발할 수 있도록 돕는 오픈 플랫폼으로, GPU에 있어 Nvidia CUDA와 유사한 역할을 한다고 할 수 있습니다. 


Nvidia는 Dell Technologies, Inspur, Lenovo, Supermicro 등의 파트너들이 이미 BlueField DPU를 자사 서버에 통합하고 있으며, Baidu, JD.com, UCloud 등의 클라우드 서비스 공급사들도 DPU를 사용 중이라고 밝혔는데요. BlueField-3는 2022년 1분기에 샘플이 출시될 예정으로, Canonical, Red Hat, VMware 등의 하이브리드 클라우드 플랫폼 파트너 뿐 아니라 Fortinet, Guardicore 등의 사이버 보안 업체들과 DDN, NetApp, WekaIO 등의 스토리지 업체, Cloudflare, F5, Juniper Networks 등의 엣지 플랫폼 업체들도 BlueField-3를 지원할 예정이라고 밝혔습니다. 


참조 자료 출처: Venture Beat, NvidiaZD Net 



AI 사이버보안 프레임워크 Morpheus


아울러 Nvidia는 이날 BlueField DPU 칩과 결합하여 사용할 수 있는 cloud-native 사이버 보안 앱 프레임워크인 Morpheus도 함께 공개했는데요. Morpheus는 2019년 인수한 Mellanox의 네트워킹 기술과 Nvidia의 AI 컴퓨팅, BlueField DPU를 결합하여 네트워크 전반의 모든 컴퓨팅 노드가 엣지에서 사이버 방어 센서 역할을 할 수 있도록 함으로써, 데이터 복제 없이 신속하게 데이터센터로 유입되는 모든 데이터 패킷을 분석할 수 있도록 합니다. 

Morpheus

출처: Nvidia


Nvida는 기존 AI 보안툴의 경우, 기술적 한계로 인해 일반적으로 전체 네트워크 트래픽의 약 5% 정도만을 샘플링하기 때문에, 위험 탐지가 불완전하게 이루어지는데 비해, Morpheus는 AI를 활용해 엣지에서 실시간 원격 측정, 정책 시행 및 처리를 시행하므로 비용이나 성능에 영향 없이 더 많은 보안 데이터를 분석할 수 있다고 밝혔습니다. 이때, BlueField DPU들은 각 서버에 부착되어 Morpheus로 모든 서버의 원격 측정 피드를 전송하는 동시에, 정책 시행을 위한 지점으로 기능하며 Morpheus가 사이버 위협에 즉각 대응할 수 있도록 합니다. 


Morpheus는 12일부터 BlueField-2와 결합하여 프리뷰 형태로 이용할 수 있으며 Atos, Dell, Gigabyte, H3C, HPE, Inspur, Lenovo, QCT, Supermicro 등의 Nvidia 공인 시스템을 통해서도 운용될 수 있도록 최적화되어 제공됩니다. 아울러 Nvidia는 서드파티 데이터센터 보안 오퍼링을 통합 및 최적화하기 위해 Aria Cybersecurity Solutions, Cloudflare, F5, Fortinet, Guardicore Canonical, Red Hat, VMware 등과 협력 중이라고 밝혔습니다. 


참조 자료 출처: Venture Beat, Nvidia, Silicon Angle



DGX SuperPOD & DGX Station A100 섭스크립션


DGX 라인업과 관련해서는 최초의 클라우드 네이티브한 멀티테넌트(Multi-tenant) AI 슈퍼컴퓨터인 DGX SuperPOD가 공개되었습니다. 20개 이상의 DGX A100 시스템과 Nvidia의 InfiniBand HDR 네트워킹을 결합한 DGX SuperPOD는 BlueField-2 DPU를 이용해 유저 데이터를 오프로드 및 가속화, 고립화 함으로써 DGX SuperPOD 인프라에 대한 안전하고 프라이빗한 클라우드 엑세스를 제공합니다. 




Nvidia 측은 DGX SuperPOD가 개발 및 리서치 팀이 공동으로 사용할 수 있는 턴키 AI 데이터센터를 기업들에 제공하기 위해 설계되었다고 설명했습니다. 아울러 Nvidia는 DGX SuperPOD 인프라 상에서 AI 훈련 및 운영을 제어하기 위한 Base Command도 새롭게 공개했는데요. 이 역시 DGX SuperPOD과 유사한 취지로, IT 팀의 복수 유저들이 안전하게 DGX SuperPod 인프라를 엑세스 및 운영, 공유할 수 있도록 합니다. 


Nvidia가 공개한 주요 DGX SuperPOD 고객은 Sony Group Corporation, NAVER, Recursion, MTS, VinAI 등으로, Sony의 경우 리서치 및 개발 팀이 AI를 비즈니스 전 영역에 도입할 수 있도록 하는데 DGX SuperPOD를 활용하고 있으며, NAVER는 신규 이커머스, 서치, 엔터테인먼트 및 결제 애플리케이션에 활용되기 위한 대규모 AI 언어 모델을 학습시키는데 DGX SuperPOD를 활용 중인 것으로 전해졌습니다. Nvidia는 아울러 대형 제약사 Schrödinger와도 슈퍼컴퓨팅 기반 신약 디스커버리에 DGX SuperPods를 활용하는 내용의 파트너십을 체결했다고 밝혔습니다. 


Nvidia는 또한 지난해 공개한 DGX Station A100과 관련해서도 이를 단기간 렌탈하여 사용한 뒤 반납할 수 있는 섭스크립션 오퍼링을 새롭게 공개했습니다. Nvidia가 DGX Stations를 렌탈 형태로 제공하는 것은 이번이 최초로, 기업들은 월 9,000 달러부터 시작하는 섭스크립션을 통해 DGX Station A100을 이용함으로써 오피스와 리서치 시설, 연구실, 홈 오피스 등 데이터 센터 외부에서도 보다 손쉽게 AI 개발을 가속화할 수 있게 될 전망입니다. 


참조 자료 출처: Venture Beat, Datacenter News



Jarvis, TAO, Nvidia EGX 


그 외 AI 모델과 관련해서는 개발자들이 인터랙티브한 대화형 경험을 제공할 수 있도록 미리 학습된(pretrained) AI 모델을 제공하는 Jarvis 프레임워크를 누구나 이용할 수 있도록 일반 배포(general availability)한다고 발표했습니다. 지난해 5월 프리뷰가 공개된 Jarvis는 음성 인식 및 언어 이해, 실시간 통역과 text-to-speech 등을 제공하는데요. Nvidia는 T-Mobile를 비롯해 수천개 기업이 얼리 엑세스 프로그램에 참여했다고 밝혔습니다. 


또한 엔터프라이즈 고객들이 머신러닝 모델들을 선택 및 조정, 배포할 수 있도록 돕는 TAO도 얼리 엑세스 형태로 출시하였는데요. TAO는 전이학습(Transfer Learning)을 통해 기존 뉴럴 네트워크의 특정 요소를 기업별 니즈에 맞도록 미세조정할 수  있도록 하는 엔터프라이즈용 AI 개발 워크플로우로, 예를 들어, 일반 언어 이해를 위한 오픈소스 모델인 BERT를 직원들이 사용하는 IT 용어를 이해하는 용도로 조정하는 등의 방식으로 활용할 수 있습니다. 


Nvidia EGX 플랫폼과 관련해서는 Atos, Dell Technologies, GIGABYTE, H3C, Inspur, Lenovo, QCT, Supermicro 등이 새롭게 Nvidia EGX 플랫폼을 지원하는 Nvidia 공인 메인스트림 서버를 제공하기 시작한다고 발표하였으며 Lockheed Martin, Mass General Brigham 등이 데이터센터에 이들 서버를 이용하기 시작한다고 발표하였습니다. 


아울러 Nvidia EGX과 소프트웨어 정의 5G vRAN(virtual radio area networks)을 위한 SDK인 Aerial SDK, Nvidia Isaac SDK 등과 같은 엔터프라이즈 AI 애플리케이션을 결합한 자사 AI-on-5G platform과 관련해서도  Fujitsu, Google Cloud, Mavenir, Radisys, Wind River 등의 파트너들이 이를 위한 솔루션을 개발 중이라고 새롭게 공개하였습니다. 


참조 자료 출처: Venture BeatZD Net 



차세대 자율주행 SoC Drive Atlan


자율주행과 관련해서는 자율주행차를 위한 AI 기반 SoC(system-on-a-chip)인 Drive Atlan이 공개되었습니다. Atlan은 Nvidia의 차세대 GPU 아키텍쳐와 ARM CPU코어, 딥러닝 및 컴퓨터 비전 엑셀러레이터를 기반으로 1,000 TOP 의 성능을 제공하는 프로세서로, Atlan 역시 BlueField DPU와의 통합을 통해 BlueField 라인업의 네트워킹, 스토리지, 보안 기능을 지원합니다. 


Drive Atlan

출처: Nvidia


Drive Atlan은 Nvidia의 기존 차량용 칩인 Drive Xavier나 Drive Orin 등에 비해 4~33배 높은 성능을 제공하는데요. 이 중 254 TOP의 성능을 가진 Orin의 경우, 2022년도 출시되는 차량들에 탑재될 예정으로, Nvidia는 Orin 칩과의 매출 카니발리제이션을 막기 위해 2025년 출시되는 차량들부터 Drive Atlan을 탑재하는 것을 목표로 하고 있습니다. 


아울러 Nvidia는 전세대 차량용 칩인 Orin과 관련해서도 Volvo의 차세대 자율주행차에 Orin SoC를 탑재하는 협력을 더욱 확대한다고 발표하였는데요. Orin을 탑재한 첫 Volvo 자율주행차인 XC90은 내년도에 공개될 예정으로, Xavier 기반의 서버가 차량 내부에서 에너지 매니지먼트와 운전자 보조 등의 코어 기능을 수행하고, Orin이 라이더 센서 데이터 프로세싱 및 컴퓨터 비전 등을 수행하게 될 예정입니다. 


참조 자료 출처: Venture Beat,  ZD Net, Engadget



함께보면 좋은 기사

첫 데이터센터 CPU 출시한 Nvidia, GTC 2021 발표내용 총정리

Nvidia가 원격으로 열린 GTC 2021 행사에서 자사 첫 데이터센터용 CPU인 Grace를 비롯해 차세대 DPU인 BlueField-3, 가상 디자인 및 협업 플랫폼 Omniverse, AI 사이버보안 프레임워크 Morpheus, 대화형 AI 프레임워크 Jarvis, 자율주행용 SoC인 Drive Atlan, 클라우드 네이티브 슈퍼컴퓨터 DGX Station A100, AI 개발을 위한 엔터프라이즈 워크플로우 TAO 등 다수의 내용을 발표했습니다. 


GTC 2021 키노트 스피치

출처: YouTube



거대 AI 모델을 위한 첫 데이터센터 CPU, Grace


이 중 가장 눈길을 끌었던 것은 대규모 AI 및 하이 퍼포먼스 컴퓨팅을 위한 ARM 기반 CPU인 Grace 였는데요. "테라바이트 스케일 컴퓨팅을 위해 디자인 된 세계 최초의 CPU"로 소개된 Grace는 1조 파라미터 이상의 차세대 NLP 모델과 같은 워크로드를 처리하는데 고도로 특화된 프로세서로, Nvidia GPU와 결합하여 사용할 경우 Intel이나 AMD의 x86 CPU 상에서 운용되는 기존의 Nvidia DGX 기반 시스템에 비해 10배 빠른 퍼포먼스를 제공합니다. 


이같은 Grace의 퍼포먼스는 Grace와 Nvidia GPU가 서로 초당 900GB 속도로 데이터를 주고받을 수 있도록 하는 4세대 Nvidia NVLink 인터커넥트 기술에 기반한 것으로, 이는 현존하는 주요 서버들에 비해 30배 높은 대역폭(aggregate bandwidth)을 지원하는 것입니다. Grace는 아울러 ARM의 차세대 CPU 코어인 Neoverse와 기존 DDR4 메모리 대비 10배 향상된 에너지 효율성과 2배 높은 대역폭을 지원하는 LPDDR5x 서브시스템을 결합함으로써 에너지 효율 역시 크게 개선시켰습니다. 


Nvidia Grace

출처: Nvidia 


키노트 스피치를 통해 Grace를 선보인 Nvida의 CEO인 Jensen Huang은 "라이센싱한 ARM IP를 이용해 Grace를 AI와 HPC에 특화된 CPU로 설계했다"며, GPU, DPU와 함께 Grace는 컴퓨팅을 위한 세 번째 기반기술과 AI의 전진을 위해 데이터센터를 재설계(re-architect)할 수 있도록 하는 역량을 제공한다. Nvidia는 이제 세 가지 종류의 칩을 제공하는 기업(Nvidia is now a three-chip company)"이라고 과시했습니다. 


Tirias Research의 Kevin Krewell는 이와 관련해 "Grace 플랫폼과 Arm CPU는 Nvidia에 있어서 커다란 진일보"라면서 "NVlinks를 기반으로 GPU와 연결된 단일한 커스텀 CPU를 통해 현재 기술로는 처리에서 수일 이상이 소요되는 초대형(ultra-large) AI 모델로 스케일을 확대하려는 Nvidia의 새로운 구상"을 Grace를 통해 확인할 수 있다고 평가했습니다. 


Moor Insights & Strategies의 애널리스트인 Patrick Moorhead는 역시 "GTC 21의 최대 발표는 Grace"라며 Grace가 1조 파라미터 이상 규모의 AI를 겨냥해 Nvidia GPU와 고도의 통합성(tightly integrated)을 가지도록 설계되었다는 점에 주목했는데요. 이는 PCIe 기술을 기반으로 연결된 전통적인 x86 CPU와 GPU와는 성격이 다른 것으로, AMD와 Intel의 범용 데이터센터 CPU와 혼동되어서는 안된다는 설명입니다. 


Grace의 출시가 Nvidia와 Intel, AMD 등 기존 데이터센터 칩 제조사들과의 파트너십에 부담으로 작용할 것이라는 우려와 관련해, Jensen Huang 역시 "우리의 기본적인 성향은 누군가가 이미 만들고 있는 건 만들지 않는 것"이라면서 Grace는 현존하는 아키텍쳐로는 처리되기 어려운 "거대한 규모의 AI 모델의 학습이라는 유니크한 문제를 해결하기 위해 개발"되었음을 강조했습니다. 


Grace는 2023년 출시될 예정으로 Nvidia는 Swiss Supercomputing Center와 미국 에너지부(Department of Energy)의 Los Alamos National Laboratory를 첫 고객으로 발표했습니다. 이와 관련해 Venture Beat는 현존하는 최대 규모의 AI 모델들은 수십억 파라미터 규모로, 두 달 반마다 그 규모가 두 배씩 커지고 있다면서, 이같은 AI 데이터 규모의 기하급수적 증가가 Grace와 같이 GPU와의 긴밀한 연결을 통해 시스템 보틀넥을 제거할 수 있는 새로운 형태의 CPU에 대한 수요로 이어질 것이라는 관측을 전했습니다. 


Huang 역시 Grace의 상업성을 묻는 질문에 대해 "GPU가 (처음에는) 0 달러 규모 시장이었던 것과 마찬가지" Grace와 같은 거대 AI 모델 전용 커스텀 CPU에 대한 시장 역시 "정확한 규모는 모르지만, 매우 큰 규모가 되리라는 게 나의 직감"이라며 "0 달러 규모의 시장을 좇는 것이 우리가 산업에 기여하는 방식"이라고 밝혔습니다. 


참조 자료 출처: Venture Beat, ZD Net 



엔지니어들을 위한 메타버스, Omniverse Enterprise


지난해 12월 베타 런칭했던 Omniverse의 엔터프라이즈 버전인 Omniverse Enterprise의 출시 소식도 눈길을 끌었습니다. 엔지니어를 위한 메타버스로 소개된 Omniverse는 Nvidia의 RTX 3D 시뮬레이션 기술을 기반으로 여러 엔지니어들이 Google Doc 문서를 함께 편집하는 것처럼 가상환경에서 협업할 수 있도록 하는 디자인 및 콜라보레이션 플랫폼입니다. 


Nvidia Omniverse

출처: Youtube


Nvidia가 발표한 바에 의하면, BMW Group, Ericsson, Foster + Partners, WPP 등이 이미 Omniverse를 이용하고 있는 중으로, BMW Group의 경우 Omniverse를 이용해 자사 공장의 디지털 트윈을 구축하였는데요. BMW는 글로벌 제조 네트워크 내의 수천명의 플래너, 프로덕트 매니저, 시설 매니저 및 전문가들이 Omniverse를 통해 단일한 가상 환경에서 디자인 및 플래닝, 엔지니어링, 최적화에 협력하고 있다면서 이를 통해 플래닝 프로세스를 30% 더 효율화시킬 수 있었다고 전했습니다. 


게임 퍼블리셔 Activision은 Omniverse를 이용해 100,000 개 이상의 3D 자산을 관리하고 있으며, WPP의 경우 전통적인 on-location 광고 콘텐츠 제작을 Omniverse를 이용함으로써 전적으로 가상 환경에서의 제작으로 대체하였다고 밝혔습니다. Foster + Partners 역시 14개 국에 퍼져 있는 팀원들이 Omniverse를 통해 심리스하게 공동 디자인 및 시각화를 수행할 수 있도록 하고 있으며, Ericsson는 Omniverse 내에서 자사 5G 무선 네트워크를 시뮬레이션 하고 있습니다.  


Nvidia는 연내로 Omniverse를 엔터프라이즈용 섭스크립션 서비스 형태로 런칭할 계획으로, 올해 여름까지 총 400개 기업들이 Omniverse Enterprise를 이용하기 시작할 예정이라고 밝혔습니다. 아울러 인프라 엔지니어링 소프트웨어 업체 Bentley Systems를 비롯해 Adobe, Autodesk, Epic Games, ESRI, Graphisoft, Trimble, Robert McNeel & Associates, Blender, Marvelous Designer, Reallusion, Wrnch 등의 서드파티 파트너들 역시 Omniverse 용 앱을 지원하기 시작할 예정입니다.  


참조 자료 출처: Venture BeatZD Net 



차세대 DPU BlueField-3


BlueField-3의 경우 DPU(Data Processing Units) 라인업의 최신 제품으로, 데이터센터 인프라를 애플리케이션으로부터 오프로드 및 고립시킴으로써 소프트웨어 정의(software-defined) 네트워킹 및 스토리지, 사이버 보안을 가속화할 수 있도록 설계되었습니다. DPU는 Nvidia가 지난해 12월 처음 공개했던 새로운 종류의 프로세서로, 당시 Nvidia는 2021년에 BlueField 2와 BlueField 2X를 출시한 뒤, 2022년에 BlueField 3과 BlueField 3X, 2023년에 BlueField 4를 공개하는 로드맵을 제시한 바 있었습니다. 


BlueField-3

출처: Nvidia


이번에 공개된 BlueField-3는 5세대 PCIe 기술과 시간 동기화 데이터센터 가속화를 지원하는 첫 DPU 제품으로, 16개의 ARM A78 코어가 탑재되어 최대 300 CPU 코어에 해당하는 데이터센터 서비스를 제공합니다. 전세대 제품인 BlueField-2에 비해서는 10배 가속화된 컴푸팅 성능과 4배 빠른 암호화 속도를 지원하며, 전세대와 마찬가지로 DOCA SDK를 지원합니다. DOCA는 DPU 가속(DPU-accelerated) 데이터센터 인프라 서비스 상에서 애플리케이션을 개발할 수 있도록 돕는 오픈 플랫폼으로, GPU에 있어 Nvidia CUDA와 유사한 역할을 한다고 할 수 있습니다. 


Nvidia는 Dell Technologies, Inspur, Lenovo, Supermicro 등의 파트너들이 이미 BlueField DPU를 자사 서버에 통합하고 있으며, Baidu, JD.com, UCloud 등의 클라우드 서비스 공급사들도 DPU를 사용 중이라고 밝혔는데요. BlueField-3는 2022년 1분기에 샘플이 출시될 예정으로, Canonical, Red Hat, VMware 등의 하이브리드 클라우드 플랫폼 파트너 뿐 아니라 Fortinet, Guardicore 등의 사이버 보안 업체들과 DDN, NetApp, WekaIO 등의 스토리지 업체, Cloudflare, F5, Juniper Networks 등의 엣지 플랫폼 업체들도 BlueField-3를 지원할 예정이라고 밝혔습니다. 


참조 자료 출처: Venture Beat, NvidiaZD Net 



AI 사이버보안 프레임워크 Morpheus


아울러 Nvidia는 이날 BlueField DPU 칩과 결합하여 사용할 수 있는 cloud-native 사이버 보안 앱 프레임워크인 Morpheus도 함께 공개했는데요. Morpheus는 2019년 인수한 Mellanox의 네트워킹 기술과 Nvidia의 AI 컴퓨팅, BlueField DPU를 결합하여 네트워크 전반의 모든 컴퓨팅 노드가 엣지에서 사이버 방어 센서 역할을 할 수 있도록 함으로써, 데이터 복제 없이 신속하게 데이터센터로 유입되는 모든 데이터 패킷을 분석할 수 있도록 합니다. 

Morpheus

출처: Nvidia


Nvida는 기존 AI 보안툴의 경우, 기술적 한계로 인해 일반적으로 전체 네트워크 트래픽의 약 5% 정도만을 샘플링하기 때문에, 위험 탐지가 불완전하게 이루어지는데 비해, Morpheus는 AI를 활용해 엣지에서 실시간 원격 측정, 정책 시행 및 처리를 시행하므로 비용이나 성능에 영향 없이 더 많은 보안 데이터를 분석할 수 있다고 밝혔습니다. 이때, BlueField DPU들은 각 서버에 부착되어 Morpheus로 모든 서버의 원격 측정 피드를 전송하는 동시에, 정책 시행을 위한 지점으로 기능하며 Morpheus가 사이버 위협에 즉각 대응할 수 있도록 합니다. 


Morpheus는 12일부터 BlueField-2와 결합하여 프리뷰 형태로 이용할 수 있으며 Atos, Dell, Gigabyte, H3C, HPE, Inspur, Lenovo, QCT, Supermicro 등의 Nvidia 공인 시스템을 통해서도 운용될 수 있도록 최적화되어 제공됩니다. 아울러 Nvidia는 서드파티 데이터센터 보안 오퍼링을 통합 및 최적화하기 위해 Aria Cybersecurity Solutions, Cloudflare, F5, Fortinet, Guardicore Canonical, Red Hat, VMware 등과 협력 중이라고 밝혔습니다. 


참조 자료 출처: Venture Beat, Nvidia, Silicon Angle



DGX SuperPOD & DGX Station A100 섭스크립션


DGX 라인업과 관련해서는 최초의 클라우드 네이티브한 멀티테넌트(Multi-tenant) AI 슈퍼컴퓨터인 DGX SuperPOD가 공개되었습니다. 20개 이상의 DGX A100 시스템과 Nvidia의 InfiniBand HDR 네트워킹을 결합한 DGX SuperPOD는 BlueField-2 DPU를 이용해 유저 데이터를 오프로드 및 가속화, 고립화 함으로써 DGX SuperPOD 인프라에 대한 안전하고 프라이빗한 클라우드 엑세스를 제공합니다. 




Nvidia 측은 DGX SuperPOD가 개발 및 리서치 팀이 공동으로 사용할 수 있는 턴키 AI 데이터센터를 기업들에 제공하기 위해 설계되었다고 설명했습니다. 아울러 Nvidia는 DGX SuperPOD 인프라 상에서 AI 훈련 및 운영을 제어하기 위한 Base Command도 새롭게 공개했는데요. 이 역시 DGX SuperPOD과 유사한 취지로, IT 팀의 복수 유저들이 안전하게 DGX SuperPod 인프라를 엑세스 및 운영, 공유할 수 있도록 합니다. 


Nvidia가 공개한 주요 DGX SuperPOD 고객은 Sony Group Corporation, NAVER, Recursion, MTS, VinAI 등으로, Sony의 경우 리서치 및 개발 팀이 AI를 비즈니스 전 영역에 도입할 수 있도록 하는데 DGX SuperPOD를 활용하고 있으며, NAVER는 신규 이커머스, 서치, 엔터테인먼트 및 결제 애플리케이션에 활용되기 위한 대규모 AI 언어 모델을 학습시키는데 DGX SuperPOD를 활용 중인 것으로 전해졌습니다. Nvidia는 아울러 대형 제약사 Schrödinger와도 슈퍼컴퓨팅 기반 신약 디스커버리에 DGX SuperPods를 활용하는 내용의 파트너십을 체결했다고 밝혔습니다. 


Nvidia는 또한 지난해 공개한 DGX Station A100과 관련해서도 이를 단기간 렌탈하여 사용한 뒤 반납할 수 있는 섭스크립션 오퍼링을 새롭게 공개했습니다. Nvidia가 DGX Stations를 렌탈 형태로 제공하는 것은 이번이 최초로, 기업들은 월 9,000 달러부터 시작하는 섭스크립션을 통해 DGX Station A100을 이용함으로써 오피스와 리서치 시설, 연구실, 홈 오피스 등 데이터 센터 외부에서도 보다 손쉽게 AI 개발을 가속화할 수 있게 될 전망입니다. 


참조 자료 출처: Venture Beat, Datacenter News



Jarvis, TAO, Nvidia EGX 


그 외 AI 모델과 관련해서는 개발자들이 인터랙티브한 대화형 경험을 제공할 수 있도록 미리 학습된(pretrained) AI 모델을 제공하는 Jarvis 프레임워크를 누구나 이용할 수 있도록 일반 배포(general availability)한다고 발표했습니다. 지난해 5월 프리뷰가 공개된 Jarvis는 음성 인식 및 언어 이해, 실시간 통역과 text-to-speech 등을 제공하는데요. Nvidia는 T-Mobile를 비롯해 수천개 기업이 얼리 엑세스 프로그램에 참여했다고 밝혔습니다. 


또한 엔터프라이즈 고객들이 머신러닝 모델들을 선택 및 조정, 배포할 수 있도록 돕는 TAO도 얼리 엑세스 형태로 출시하였는데요. TAO는 전이학습(Transfer Learning)을 통해 기존 뉴럴 네트워크의 특정 요소를 기업별 니즈에 맞도록 미세조정할 수  있도록 하는 엔터프라이즈용 AI 개발 워크플로우로, 예를 들어, 일반 언어 이해를 위한 오픈소스 모델인 BERT를 직원들이 사용하는 IT 용어를 이해하는 용도로 조정하는 등의 방식으로 활용할 수 있습니다. 


Nvidia EGX 플랫폼과 관련해서는 Atos, Dell Technologies, GIGABYTE, H3C, Inspur, Lenovo, QCT, Supermicro 등이 새롭게 Nvidia EGX 플랫폼을 지원하는 Nvidia 공인 메인스트림 서버를 제공하기 시작한다고 발표하였으며 Lockheed Martin, Mass General Brigham 등이 데이터센터에 이들 서버를 이용하기 시작한다고 발표하였습니다. 


아울러 Nvidia EGX과 소프트웨어 정의 5G vRAN(virtual radio area networks)을 위한 SDK인 Aerial SDK, Nvidia Isaac SDK 등과 같은 엔터프라이즈 AI 애플리케이션을 결합한 자사 AI-on-5G platform과 관련해서도  Fujitsu, Google Cloud, Mavenir, Radisys, Wind River 등의 파트너들이 이를 위한 솔루션을 개발 중이라고 새롭게 공개하였습니다. 


참조 자료 출처: Venture BeatZD Net 



차세대 자율주행 SoC Drive Atlan


자율주행과 관련해서는 자율주행차를 위한 AI 기반 SoC(system-on-a-chip)인 Drive Atlan이 공개되었습니다. Atlan은 Nvidia의 차세대 GPU 아키텍쳐와 ARM CPU코어, 딥러닝 및 컴퓨터 비전 엑셀러레이터를 기반으로 1,000 TOP 의 성능을 제공하는 프로세서로, Atlan 역시 BlueField DPU와의 통합을 통해 BlueField 라인업의 네트워킹, 스토리지, 보안 기능을 지원합니다. 


Drive Atlan

출처: Nvidia


Drive Atlan은 Nvidia의 기존 차량용 칩인 Drive Xavier나 Drive Orin 등에 비해 4~33배 높은 성능을 제공하는데요. 이 중 254 TOP의 성능을 가진 Orin의 경우, 2022년도 출시되는 차량들에 탑재될 예정으로, Nvidia는 Orin 칩과의 매출 카니발리제이션을 막기 위해 2025년 출시되는 차량들부터 Drive Atlan을 탑재하는 것을 목표로 하고 있습니다. 


아울러 Nvidia는 전세대 차량용 칩인 Orin과 관련해서도 Volvo의 차세대 자율주행차에 Orin SoC를 탑재하는 협력을 더욱 확대한다고 발표하였는데요. Orin을 탑재한 첫 Volvo 자율주행차인 XC90은 내년도에 공개될 예정으로, Xavier 기반의 서버가 차량 내부에서 에너지 매니지먼트와 운전자 보조 등의 코어 기능을 수행하고, Orin이 라이더 센서 데이터 프로세싱 및 컴퓨터 비전 등을 수행하게 될 예정입니다. 


참조 자료 출처: Venture Beat,  ZD Net, Engadget



함께보면 좋은 기사