SK하이닉스, 엔비디아 '베라 루빈' 최적화 AI 서버 메모리 본격 양산
  • 장병문 기자
  • 입력: 2026.04.20 13:20 / 수정: 2026.04.20 13:20
"고성능 AI 연산에 최적화된 설루션"
SK하이닉스는 10나노급 6세대(1c) LPDDR5X 저전력 D램 기반 차세대 메모리 모듈 규격인 SOCAMM2(사진) 192GB 제품을 본격 양산한다. /SK하이닉스
SK하이닉스는 10나노급 6세대(1c) LPDDR5X 저전력 D램 기반 차세대 메모리 모듈 규격인 SOCAMM2(사진) 192GB 제품을 본격 양산한다. /SK하이닉스

[더팩트ㅣ장병문 기자] SK하이닉스가 SOCAMM2 192GB를 본격 양산하면서 AI 서버 메모리 성능의 새로운 기준을 만들었다.

SK하이닉스는 10나노급 6세대(1c) LPDDR5X 저전력 D램 기반 차세대 메모리 모듈 규격인 SOCAMM2(Small Outline Compression Attached Memory Module2) 192GB 제품을 본격 양산한다고 20일 밝혔다. SOCAMM2는 주로 스마트폰 등 모바일 제품에 사용되던 저전력 메모리를 서버 환경에 맞게 변형한 모듈로 차세대 AI 서버 등에 활용된다.

SOCAMM2는 저전력 D램인 LPDDR 기반의 AI 서버 특화 메모리 모듈로 얇은 두께와 높은 확장성을 갖춘 AI 서버용 메모리 모듈, 압착식 커넥터를 통해 신호 무결성을 높이고 모듈 교체가 용이한 장점이 있다.

SK하이닉스는 "1c 나노 공정을 적용한 SOCAMM2 제품은 기존 RDIMM 대비 2배 이상의 대역폭과 75% 이상 개선된 에너지 효율을 실현해 고성능 AI 연산에 최적화된 설루션"이라고 강조했다.

특히, 이번 SOCAMM2 제품이 엔비디아의 베라 루빈(Vera Rubin)에 최적화되어 설계됐다고 밝혔다. 수천 억 개의 파라미터를 보유한 초거대 AI 모델의 학습과 추론 과정에서 발생하는 메모리 병목 현상을 근본적으로 해소함으로써 전체 시스템의 처리 속도를 비약적으로 높이는 데 기여할 것으로 SK하이닉스는 기대하고 있다.

AI 시장은 학습에서 추론 중심으로 본격 전환되면서, 거대언어모델을 저전력으로 구동할 수 있는 SOCAMM2가 차세대 메모리 설루션으로 주목받고 있다. SK하이닉스 관계자는 "글로벌 CSP(Cloud Service Provider) 고객 수요에 발맞춰 양산 체제를 조기 안정화했다"고 말했다.

SK하이닉스 김주선 AI Infra 사장은 "SOCAMM2 192GB 제품 공급으로 AI 메모리 성능의 새로운 기준을 세웠다"며 "글로벌 AI 고객과 긴밀한 협력을 바탕으로 고객이 가장 신뢰하는 AI 메모리 설루션 기업으로 자리매김하겠다"고 말했다.

jangbm@tf.co.kr

발로 뛰는 <더팩트>는 24시간 여러분의 제보를 기다립니다.
· 카카오톡: '더팩트제보' 검색
· 이메일: jebo@tf.co.kr
· 뉴스 홈페이지: https://talk.tf.co.kr/bbs/report/write
· 네이버 메인 더팩트 구독하고 [특종보자→]
· 그곳이 알고싶냐? [영상보기→]
AD