차기 아이패드 데이터 처리 PC보다 빨리진다

한주엽 2017. 8. 24. 17:00
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

차세대 아이패드가 일반 노트북PC 데이터 처리 속도보다 빨라진다.

두뇌 역할을 하는 시스템온칩(SoC)에 일반 저전력 D램이 아닌 초고성능 고대역폭메모리(HBM)를 접목하기 때문이다.

내년에 출시되는 차세대 아이패드용 SoC인 A11X에 HBM D램을 멀티칩모듈(MCM) 방식으로 패키징하는 것이 목표다.

현재 HBM은 빠른 속도임에도 일부 고성능 그래픽카드와 인공지능(AI) 프로세서에만 접목되고 있다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

애플 아이패드 프로.

차세대 아이패드가 일반 노트북PC 데이터 처리 속도보다 빨라진다. 두뇌 역할을 하는 시스템온칩(SoC)에 일반 저전력 D램이 아닌 초고성능 고대역폭메모리(HBM)를 접목하기 때문이다. ARM 아키텍처 기반 프로세서가 기존 x86 PC 프로세서 성능을 능가하면서 맥북 등 애플 PC 제품군에도 아이폰용 애플리케이션 프로세서(AP)를 탑재할 수 있을 전망이다.

D램은 임시 데이터 저장 창고다. 데이터를 저장하고 꺼내 쓰는 속도가 빨라지면 전체 시스템 성능을 대폭 높일 수 있다. 모바일 기기용 SoC에 HBM이 접목되는 것은 이번이 처음이다. 결과가 성공작이라면 메모리 공급 업체인 삼성전자와 SK하이닉스는 물론 국내외 반도체 장비 재료 업계도 큰 혜택을 볼 것으로 전망된다.

24일 업계에 따르면 애플은 최근 한국에 생산 공장을 둔 글로벌 외주반도체패키지테스트(OSAT) 업체와 차세대 아이패드용 SoC에 HBM을 접목하는 연구 과제를 시작했다. 내년에 출시되는 차세대 아이패드용 SoC인 A11X에 HBM D램을 멀티칩모듈(MCM) 방식으로 패키징하는 것이 목표다. 대만 TSMC가 SoC 칩을 생산하면 OSAT는 SoC와 함께 메모리 업체로부터 HBM을 받아와 패키지 작업을 수행하게 된다.

애플 A10X SoC. HBM을 얹은 A11X는 최종 패키지 면적이 커질 전망이다.

MCM은 패키지 기판 위에 칩을 평면으로 나란히 배열하는 기술이다. 업계에선 '2.5D 패키징'이라고 부른다. 칩과 메모리가 평면으로 배열되기 때문에 최종 패키지 면적은 물론 기판 차지 면적도 넓어질 수밖에 없다. 아이폰이 아닌 아이패드부터 HBM을 적용하는 이유다. 비슷한 패키징 기법으로는 대만 TSMC의 CoWoS, 인텔의 EMIB 등이 있다.

삼성전자가 최근 발표한 8GB HBM2 D램.

HBM은 D램 여러 개를 적층한 형태다. 실리콘관통전극(TSV) 기술을 활용한다. TSV는 칩에 매우 미세한 구멍을 다량으로 뚫고 동일 칩을 수직으로 적층한 뒤 구멍 속을 구리로 채워 전극을 형성하는 적층 기법이다. 수천 개의 미세한 구멍이 데이터 입출구(I/O) 역할을 하기 때문에 전송 속도를 의미하는 대역폭이 넓으면서도 전력 소모량 역시 낮다. 삼성전자가 최근 출시한 8GB 용량의 HBM2는 초당 256GB의 데이터를 중앙처리장치(CPU)와 주고받을 수 있다. 이는 기존의 아이패드용 SoC에 붙어 있는 저전력 LPDDR4 D램(초당 52GB 전송)보다 5배가량 빠른 속도다.

반도체 전문가는 “CPU의 연산 성능은 매년 평균 60% 높아지지만 메모리 대역폭의 연간 증가율은 10% 미만 수준에 그친다”면서 “이 같은 병목 현상만 해결하면 전체 시스템의 속도를 혁신시킬 수 있다”고 역설했다.

모바일 기기용 SoC에 HBM가 처음 적용되면서 HBM 출하량 증가가 기대된다. 현재 HBM은 빠른 속도임에도 일부 고성능 그래픽카드와 인공지능(AI) 프로세서에만 접목되고 있다. 값이 비싼 탓이다. 엔비디아는 그래픽처리장치(GPU)와 HBM을 기능성 패키지 기판인 인터포저 위로 올려서 AI 구현을 위한 딥러닝 하드웨어(HW) 장치를 출시할 계획이다. 인텔 역시 딥러닝 연산에 특화된 제온파이 프로세서에 HBM을 탑재하고 있다.

업계 관계자는 “고성능 그래픽카드나 딥러닝 연산 프로세서는 출하량이 많지 않아 HBM 시장 확대 기대감은 제한됐다”면서 “그러나 모바일 기기에 적용이 이뤄지기 시작하면 급성장이 가능하다”고 말했다.

메모리와 장비업계의 수혜가 예상된다. 예컨대 한미반도체는 SK하이닉스, 세메스는 삼성전자에 각각 TSV 공정을 위한 열 압착 본딩 장비를 공급했다. HBM 출하량이 늘면 이 같은 관련 장비의 수요 역시 확대될 것으로 관측된다.

한주엽 반도체 전문기자 powerusr@etnews.com

Copyright © 전자신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?