HUFFPOST
HUFFPOST
기업과산업  전자·전기·정보통신

메모리 더 필요한 구글 8세대 'AI칩', 전영현 삼성전자 HBM 이어 S램 공급 확대 나선다

나병현 기자 naforce@businesspost.co.kr 2026-04-23 15:59:21
확대 축소
공유하기
페이스북 공유하기 X 공유하기 네이버 공유하기 카카오톡 공유하기 유튜브 공유하기 url 공유하기 인쇄하기

메모리 더 필요한 구글 8세대 'AI칩', <a href='https://www.businesspost.co.kr/BP?command=article_view&num=405872' class='human_link' style='text-decoration:underline' target='_blank'>전영현</a> 삼성전자 HBM 이어 S램 공급 확대 나선다
▲ 삼성전자가 구글의 자체 AI 칩 역량 강화로, 고대역폭메모리(HBM) 공급 확대와 함께 파운드리와 S램에서도 사업 확대 기회를 엿볼 것으로 예상된다. <제미나이 나노 바나나 2> 
[비즈니스포스트] 삼성전자가 구글의 8세대 자체 인공지능(AI) 칩 '텐서처리장치(TPU)'에 더 많은 고대역폭메모리(HBM)를 공급하면서, 구글의 AI 생태계 확장에 수혜를 입을 것으로 예상된다.

8세대 TPU는 고대역폭메모리(HBM)는 물론 추론 능력 강화를 위해 초고속메모리(S램) 탑재량도 대폭 늘어난다. 이 같은 추세는 삼성전자에 S램 메모리 사업 확대 기회가 될 것으로 보인다.

전영현 삼성전자 디바이스솔루션(DS)부문장 대표이사 부회장은 메모리와 파운드리(반도체 위탁생산)를 모두 활용할 수 있는 강점을 바탕으로 HBM과 S램 통합 메모리 공급에서 우위를 차지할 것으로 보인다.

23일 반도체 업계 취재를 종합하면 구글이 8세대 AI 칩 'TPU 8t(학습용)'와 'TPU 8i(추론용)' 등 두 가지 칩을 공개한 가운데 전작 대비 탑재되는 메모리가 급증한 점이 부각되고 있다.

특히 추론용인 TPU 8i 초기 모델은 288기가바이트(GB) 용량의 HBM3E(5세대)가 탑재된다. 이는 7세대 TPU인 '아이언우드'의 HBM 용량 192GB에서 1.5배 늘어난 것이다.

게다가 최근 미국 투자은행 뱅크오브아메리카는 구글 TPU의 올해 출하량 전망치를 460만 개로 전망했다. 2025년 230만 개에서 2배 늘어나는 것으로, 단순 계산을 하면 구글의 HBM 수요는 올해 약 3배 증가할 것으로 예상된다. 

삼성전자는 지난해 구글 TPU 내 HBM 공급 점유율이 60%에 달했다.

김동원 KB증권 연구원은 "구글 TPU는 중국 딥시크 충격 이후 투자 효율을 중시한 AI 시장의 구조적 변화가 시작된 두 번째 사례"라며 "2026년부터 AI 시장은 학습 중심에서 추론으로 빠르게 변화하고, AI 생태계도 엔비디아 중심에서 구글 등으로 다변화할 것"이라고 내다봤다.

게다가 TPU에 들어가는 S램 용량 확대도 삼성전자에게 새로운 기회를 열어줄 것으로 예상된다. 
 
메모리 더 필요한 구글 8세대 'AI칩', <a href='https://www.businesspost.co.kr/BP?command=article_view&num=405872' class='human_link' style='text-decoration:underline' target='_blank'>전영현</a> 삼성전자 HBM 이어 S램 공급 확대 나선다
▲ 구글의 8세대 추론용 칩 'TPU 8i'. <구글>
S램은 전원이 공급되는 동안 데이터를 유지하는 반도체로, 구조가 복잡하고 가격이 비싸지만 데이터 처리 속도가 매우 빨라 주로 프로세서 내부의 캐시 메모리로 사용되는 제품이다. HBM과 달리, 칩 내부에 직접 설계돼 AI 칩의 추론 성능을 강화하는 데 주로 활용된다.

S램은 그동안 일반 D램 대비 면적이 넓고, 제조 단가가 높다는 단점 때문에 제한적으로만 활용됐다. 하지만 비서(에이전트)형 AI의 확산으로 AI 칩의 추론 기능이 중요해지면서, S램의 가치가 재평가되고 있다.

TPU 8i에 들어간 S램 용량은 384메가바이트(MB)로, 전작보다 3배 증가했다. 엔비디아의 추론용 AI 칩 '그록3'에는 500MB의 S램이, 마이크로소프트 AI 칩 '마이아 200'에는 272MB의 S램이 적용된다.

김영건 미래에셋증권 연구원은 "D램 구조에 비해 S램은 10배 이상 넓은 면적을 필요로 하며, 구조가 복잡하고 동작이 예민해 로직 소자에 비해 공정 미세화에 따른 면적 축소가 제한적"이라며 "추론 가속기의 S램 적용 확대는 보다 많은 선단 파운드리 웨이퍼를 필요로 할 것"이라고 내다봤다.

S램은 메모리 반도체이지만 일반 메모리와 달리 파운드리에서 제조를 담당하고 있다.

D램이나 낸드플래시는 별도의 공정에서 따로 만들어 로직 칩(CPU, GPU 등) 옆에 붙이지만, S램은 로직 칩과 같은 실리콘 웨이퍼 위에 직접 그려 넣는 방식으로 제조되기 때문이다. 엔비디아 그록3에 들어가는 S램은 삼성전자가 공급하며, TPU 8i과 마이아 200에 들어간 S램은 대만 TSMC가 제조한다.

하지만 AI 칩에 S램 탑재량이 더 늘어나면, S램도 HBM처럼 독립적 고부가가치 상품으로 격상될 가능성이 제기된다.

연산을 담당하는 로직 칩은 기존 파운드리 공정에서 만들고, S램은 다른 기업이 만들어 하나로 합치는 방식으로 제조 과정이 이원화되는 것이다. 이 과정에서 삼성전자는 파운드리와 메모리를 모두 활용함으로써, S램 시장에서 경쟁우위를 점할 수 있을 것으로 분석된다.

이미 과거 AMD가 중앙처리장치(CPU) '라이젠 5000'에 따로 제조한 S램을 이어붙이는 방식을 적용한 적이 있다.

SK하이닉스와 마이크론도 S램 관련 기술을 확보하고 있으나 상용화 측면에서는 초기 단계에 머물러 있다.

S램 적층 기술에서는 삼성전자가 TSMC보다 앞서 있다는 평가도 나온다.  

사모투자회사 트리오오리엔트의 댄 니스테트 부사장은 "삼성전자가 S램 적층 기술에서 경쟁사보다 더 나은 것으로 보인다"며 "메모리 기업이라는 점이 S램 분야에서 삼성의 큰 강점"고 분석했다. 나병현 기자

최신기사

[오늘의 주목주] LS일렉트릭 전력기기주 강세 속 11%대 올라, 코스피 6470선 '..
KB금융 역대급 실적에 자사주 소각 '선물 보따리', 양종희 연임 가도 '파란불'
신한금융 1분기 순이익 1조6226억으로 9% 늘어, 역대 최대 분기 실적 달성
신한금융 진옥동 2기 '깜짝실적'으로 출발, 상한 없는 '밸류업 2.0'으로 주주환원 ..
우리은행 2년 준비한 야심작 '투더문' 출격, 정진완 '상생 플랫폼' 기반 고객 확대 시동
대신증권 자금조달 무게추 ELB로, 진승욱 '초대형 IB' 실탄 장전 총력
크래프톤 14억 인도서 본격적 수익화 진입, 김창한 새 성장엔진 인도서 찾는다
[23일 오!정말] 국민의힘 김민수 "당의 그늘에서 곱게 크신 영감님들"
HD현대중공업도 '데이터센터' 테마주, '힘센엔진' 타고 시총 100조 노린다
[현장] 삼성전자 노조 평택에 3만9천명 집결, "인재제일 원칙 사라졌다, 위기 버틴 ..
KoreaWho

댓글 (0)

  • - 200자까지 쓰실 수 있습니다. (현재 0 byte / 최대 400byte)
  • - 저작권 등 다른 사람의 권리를 침해하거나 명예를 훼손하는 댓글은 관련 법률에 의해 제재를 받을 수 있습니다.
  • - 타인에게 불쾌감을 주는 욕설 등 비하하는 단어가 내용에 포함되거나 인신공격성 글은 관리자의 판단에 의해 삭제 합니다.