
1. 로직 반도체는 2nm에서 1nm로 가지만, 그 다음은 ‘더 작게’가 아니라 ‘위로’ 쌓는 방향임.
2. 2025년 2nm(GAA) → 2031년 High-NA EUV → 그 이후는 CFET과 3D 집적으로 넘어감.
3. 2031년 전후가 중요한 이유는 이 시점부터 2D 미세화가 물리적으로 버거워진다는 걸 문서가 공식적으로 인정했기 때문임.
4. FinFET에서 GAA로의 전환은 이미 끝난 얘기이고, 이제 문제는 Parasitic Capacitance와 저항, 그리고 집적 난이도. 즉, 공정을 더 파는 것만으로는 성능이 안 나온다는 이야기임.
5. 메모리 쪽은 더 솔직함. HBM의 미래는 “몇 단 쌓느냐”가 아니라 “어떻게 붙이고, 어떻게 식히느냐”임.
6. HBM은 2025년 12단 2TB/s에서, 2031년 20단 8TB/s, 2040년에는 30단 이상 128TB/s를 전제로 함.
7. 이 숫자를 가능하게 만드는 조건으로 범프리스 Cu-Cu 하이브리드 본딩과 임베디드 냉각이 필수임. 다시 말해, HBM 경쟁의 본질은 메모리 용량이 아니라 본딩 기술과 열 관리라는 것임.
8. DRAM 역시 2D 구조로는 버티기 힘들어 3D, capacitor-less 구조 전환 압박이 가속화될 것이고 패키징 파트에서는 아예 단정적으로 “단일 SoC 시대는 끝나고 있다”고 보고 있음
9. 이유는 단순함. 다이가 커질수록 수율은 떨어지고, 설계는 복잡해지고, 비용은 폭증하기 때문임.
10. 그래서 대안으로 칩렛 기반 멀티다이 구조가 표준처럼 굳어짐. 이 과정에서 성능을 가르는 요소는 공정이 아니라 2.5D/3D 패키징, 하이브리드 본딩, 저손실 기판, D2D 인터페이스임.
11. UCIe 같은 개방형 인터페이스가 중요해지는 이유도 여기에 있음.
12. 더 나아가 DTCO를 넘어서 STCO(System-Technology Co-Optimization)가 필수가 될 것으로 보임.
13. 이제 반도체 성능은 공정, 패키지, 메모리, 인터커넥트, 아키텍처를 따로따로 보면 안 됨. AI 반도체 쪽에서는 성능 지표가 깔끔하게 정리되는데, 앞으로는 그냥 TOPS/W임.
14. 학습용 AI는 2040년까지 TOPS/W가 수십~수백 배 뜀. 추론용 AI는 그보다 낮지만, 역시 전력 효율이 핵심 경쟁 지표가 됨.
15. 결국 AI 반도체의 승부처도 연산 자체보다 전력 밀도와 패키징 구조로 수렴함.

16. 해당 내용을 투자 관점에서 고민해보면, 피지컬 AI의 본질은 로봇이 아니라, 로봇이 요구하는 연산 밀도와 열 문제임.
17. 로봇과 자율주행이 커질수록 병목은 센서나 알고리즘보다 메모리 대역폭과 패키징에서 먼저 옴. 즉, 피지컬 AI는 엔드마켓이 아니라 패키징·메모리·전력 밸류체인을 당기는 힘임.
18. AI 인프라 2.0의 핵심 병목은 이미 숫자로 확정되어 있음. HBM 대역폭은 2TB/s에서 8TB/s, 그리고 128TB/s로 간다는 것임. 이 구간에서 중요한 건 “누가 더 많이 쌓느냐”가 아니라 “누가 먼저 본딩과 냉각을 양산으로 가져가느냐”임.
19. 그래서 2026~2028년은 HBM 용량 뉴스보다 하이브리드 본딩 채택 속도를 보는 게 맞음. 임베디드 냉각이 연구 단계에서 양산 옵션으로 넘어가는지도 핵심 체크포인트임.
20. 지정학 관점에서 진짜 분기점은 선단 공정이 아니라 2031년 전후 3D 집적 전환기임. 2026~2031년까지는 노드 경쟁이 계속되지만, 초과 수익은 점점 후공정으로 이동함.
21. 2031년 이후에는 경쟁 우위의 정의가 노드가 아니라 스택, 열, 인터커넥트, 시스템 최적화로 바뀜.
22. 대형주를 코어로 가져가려면 논리도 바뀌어야 함.
23. 삼성전자는 HBM이나 파운드리 한 단어로 설명할 수 있는 회사가 아님. 2nm GAA, 3D 메모리-온-로직, 패키지와 STCO를 얼마나 체계화하느냐가 진짜 KPI로 볼 수 있음.
24. 현대차는 피지컬 AI의 ‘몸’이지만, 투자 관점에서는 연산 인프라 병목을 앞당기는 수요 가속기라고 보임.

[한 줄 인사이트]
“2026~2031년 반도체의 승부는 노드가 아니라, 얼마나 잘 쌓고·붙이고·식히느냐에 달려 있다”




최근댓글