인공지능(AI) 반도체 시장을 선도하는 미국 엔비디아가 최신 AI 반도체를 공개했다.
엔비디아는 13일(현지시간) 생성형 AI 모델의 기반이 되는 대규모 언어 모델(LLM)에 적용해 이를 훈련하도록 설계된 그래픽처리장치(GPU) H200을 발표했다.
H200은 챗GPT 개발사인 오픈AI의 최신 LLM인 GPT-4 훈련에 적용되는 H100의 업그레이드 버전이다.
H100 가격은 1개당 2만5000달러~4만달러로 추정된다. LLM을 구동하기 위해서는 수천 개의 칩이 필요하다. H100의 높은 가격에도 전 세계 기업들은 이 반도체를 확보하기 위한 쟁탈전을 벌이고 있다.
이번에 발표된 H200의 가격은 알려지지 않았다.
H200에는 141기가바이트(GB)의 차세대 메모리 HBM3가 탑재됐다. 고대역폭 메모리를 뜻하는 HBM은 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 혁신적으로 끌어올린 고성능 제품이다. HBM3은 HBM의 4세대 제품으로, 반도체가 텍스트와 이미지 등을 생성하기 위해 훈련된 LLM이 추론하는 데 쓰인다.
엔비디아는 메타의 LLM인 라마2에 H200을 사용한 근거를 기반으로, H200 출력이 H100보다 2배 빠르다고 설명했다. 또 H200은 H100과 호환돼 H100을 확보한 AI 기업들이 새로운 버전을 사용하기 위해 서버 시스템이나 소프트웨어를 바꿀 필요가 없다.
아울러 이 반도체는 H200 GPU와 암(Arm) 기반 프로세서를 결합한 GH200이라는 칩과 엔비디아 컴퓨팅 플랫폼인 HGX의 서버 구성에도 쓰일 수 있다.
H200은 내년 2분기 본격 출시가 예상된다. 이에 따라 조만간 출시될 미 반도체 기업 AMD의 MI300X 반도체와도 경쟁이 예상된다. MI300X 반도체는 엔비디아 H100 대비 메모리 밀도가 2.4배, 대역폭이 1.6배 수준이다.
권해영 기자 roguehy@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>