Custom ASIC 시대 — TPU · MTIA · Trainium · Maia
하이퍼스케일러 자체 AI 칩이 NVIDIA를 위협할 수 있는가? Broadcom · Marvell 파트너십 구조 해부 (비전공자용 상세 해설)
Custom ASIC 시대 — TPU · MTIA · Trainium · Maia
하이퍼스케일러 자체 AI 칩이 NVIDIA를 위협할 수 있는가? Broadcom · Marvell 파트너십 구조 해부 기간: 2026-04-13 ~ 2026-04-19 | 2026 Q1 실적 + Custom ASIC 시장 종합
이 문서는 어떤 독자를 위한 것인가
이 문서는 투자 지식은 있으나 이공계 전공 배경이 없는 독자를 위해 쓰였다. "Google TPU · Meta MTIA · AWS Trainium"이라는 이름은 들었지만 각자 어떻게 다르고 · 누가 설계·제조하는지 · NVIDIA에 얼마나 위협인지 혼란스러운 독자를 위한 문서다.
📚 선수 개념 (Prerequisites)
- CoWoS: TSMC 독점 첨단 패키징. 모든 Custom ASIC도 CoWoS 사용. 상세: CoWoS — Concept Primer
- HBM: AI 가속기 필수 메모리. Custom ASIC도 HBM 대량 탑재. 상세: HBM (High Bandwidth Memory) — Concept Primer
- Foundry: 반도체 위탁 제조사. TSMC가 Custom ASIC 대부분 제조. 상세: Foundry · Fabless · IDM — Concept Primer
🧭 이 주의 핵심 질문 3개
- Custom ASIC이 NVIDIA GPU를 대체할 수 있는가? → 1절·2절
- Broadcom · Marvell의 구체적 포지션 차이는? → 2절·3절
- 2026-2028 Custom ASIC 시장 성장률과 투자 수혜는? → 3절·4절
0절. 본문에서 등장할 핵심 용어 (Quick Glossary)
1절. 핵심 기술 — Custom ASIC은 왜 만들어지는가
1.1 Custom ASIC의 정의
ASIC = Application-Specific Integrated Circuit = 특정 용도 집적회로
GPU · CPU 같은 범용 칩 과 달리, ASIC은 특정 작업(AI 추론 등)에 최적화된 전용 반도체.
Custom ASIC: 일반 ASIC을 특정 고객 전용 으로 추가 커스터마이징.
1.2 왜 하이퍼스케일러가 자체 ASIC을 만드나
이유 1: TCO 절감
- NVIDIA H100 대비 워크로드 최적화 시 30-50% TCO 절감 가능
- Google 2015년 TPU 투자 이후 AI 운영비 크게 절감
이유 2: NVIDIA 공급 제약 우회
- NVIDIA H100 · B200 지속 공급 부족
- 자체 ASIC으로 일부 워크로드 독립
- 협상력 확보
이유 3: 차별화된 워크로드
- Google 검색 랭킹 · 광고 모델
- Meta Llama 훈련 · 광고 추천
- AWS Bedrock · Anthropic 호스팅
- Microsoft OpenAI 서비스
- → 각기 다른 최적화 요구
이유 4: 데이터센터 전력 효율
- NVIDIA 대비 전력 효율 20-40% 개선 가능 (특정 워크로드)
- 전력 병목 완화
1.3 Custom ASIC vs GPU 차이
1.4 구조적 한계 — 왜 NVIDIA를 완전 대체 못 하나
한계 1: CUDA 생태계
- NVIDIA CUDA 개발자 2,000만+
- 모든 AI 연구실 · 스타트업 기본 표준
- Custom ASIC은 자체 SDK → 생태계 없음
한계 2: 범용성
- 새 모델 (GPT-5, Gemini 2) 등장 시 NVIDIA 즉시 지원
- Custom ASIC은 설계 재시작 2-3년
한계 3: 개발 비용
- 한 세대 개발 $500M+
- 소규모 하이퍼스케일러 불가능
1.5 Custom ASIC 설계 · 제조 생태계
2절. 하이퍼스케일러별 Custom ASIC 현황
2.1 Google TPU — 가장 성숙한 Custom ASIC
역사:
- 2015: TPU v1 (Inference 전용, 내부 사용)
- 2017: TPU v2 (Training 지원)
- 2023: TPU v5 Trillium
- 2025: TPU v6
- 2026: TPU v7 예정
현황:
- Broadcom (AVGO) 설계·제조 파트너 (12년+)
- 연 수백만개 생산
- Google Cloud Vertex AI에 배치
- Anthropic 독점 공급 계약 (Google Cloud)
2026 데이터:
- Anthropic 2026 1GW+ 컴퓨트 = TPU 수십만개
- 2027 목표 100만 chip
2.2 Meta MTIA — Llama 훈련 전용
역사:
- 2020 내부 개발 시작
- 2023 MTIA v1 공개 (Inference)
- 2026 MTIA v3 출시
현황:
- Broadcom 파트너십 (일부), 설계 상당 부분 자체
- TSMC N3 + HBM3E
- Meta AI Research 용 + 광고 추천
한계:
- 훈련 성능 NVIDIA H200 수준
- NVIDIA 대비 20-30% 효율 열위 (추정)
2.3 AWS Trainium / Inferentia — 2축 전략
AWS Trainium (트레이닝):
- 2021 Trainium1 출시
- 2026 Trainium3 양산 (2.52 PFLOPS FP8, 144GB HBM3e)
- 2026-2027 Trainium3 Ultra (128GB HBM4)
- Marvell 설계 파트너
AWS Inferentia (추론):
- 2019 Inferentia1
- 2023 Inferentia2
- 2026 Inferentia3 루머
AWS Graviton (ARM CPU):
- Trainium과 함께 사용
- Graviton4 (2024) · Graviton5 (2026 예정)
2026 현황:
- Anthropic $13B+ 독점 공급 계약
- Trainium3으로 30%+ 자체 공급
2.4 Microsoft Maia — Azure OpenAI 전용
역사:
- 2023 Maia 100 공개
- 2026 Maia 200 양산
현황:
- Marvell 설계 파트너
- Azure OpenAI Service 전용
- Cobalt (ARM CPU) 함께 사용
- Stargate 프로젝트 일부 (OpenAI 호스팅)
한계:
- OpenAI는 여전히 NVIDIA H200 · B200 대량 사용
- Maia는 보조적 역할
2.5 Apple — M-series + AI 칩 루머
현황:
- M-series (2020~) : Apple Silicon, iPhone · Mac · iPad
- 서버용 AI 칩 개발 루머 (2026-2027)
- Anthropic · OpenAI 대화 보도
2.6 China — Huawei Ascend · Alibaba Hanguang
Huawei Ascend 910B / 920
- SMIC 7nm 제조
- 중국 내 NVIDIA H100 대체재
- 상세: 중국 반도체 자립 — SMIC · CXMT · YMTC의 사투
Alibaba Hanguang 800
- Alibaba Cloud 전용
- 추론 전용
2.7 Custom ASIC 시장 규모
2.8 투자자 관점에서 보면
Custom ASIC은 NVIDIA를 대체하지 못하나 잠식하고 있다. 2026-2028 Custom ASIC 시장은 NVIDIA 데이터센터 매출의 25-30% 규모로 확대 예상.
- NVIDIA: 여전히 지배적이나 점유율 일부 잠식
- Broadcom · Marvell: 대형 수혜, 독자적 성장 축
- TSMC: 모든 Custom ASIC 제조 독점
- HBM 3사: Custom ASIC도 HBM 대량 탑재 → 추가 수요
3절. 해자 분석 — 누가 지속 수혜자인가
3.1 Broadcom (AVGO) — Wide Moat
해자 원천
- Custom ASIC 설계 70% 점유
- Google TPU 12년 공동개발
- Meta · ByteDance · Apple 일부 파트너
- Co-Packaged Optics 3축 수직통합 — Custom ASIC + 광통신 + Ethernet Switch
경쟁 방어력
- AI 수주 잔고 $73B (18개월)
- 하이퍼스케일러 설계 사이클 12년+ 누적
- 경쟁사 진입 3-4년 필요
리스크
- NVIDIA Rubin 효율성 돌파 시 ASIC 정당성 약화
- 하이퍼스케일러 내재화 가속 (Meta 독립 설계)
3.2 Marvell (MRVL) — Strong Moat
해자 원천
- AWS Trainium · Microsoft Maia 설계 파트너
- 광 DSP 50% 점유 (Inphi 인수)
- Custom ASIC 30% 점유
경쟁 방어력
- AWS 15년 공동개발
- 성장률 +40% YoY
리스크
- Broadcom 대비 고객 집중도 높음 (AWS · MSFT)
- AWS 내재화 가속 시 리스크
3.3 TSMC — 숨은 최대 수혜자
Custom ASIC 100%를 TSMC가 제조:
- N3 (TPU, MTIA v3, Trainium3)
- N2 (차세대 ASIC 2027-)
- CoWoS-L 사용
결과: Custom ASIC 시장 성장 = TSMC 매출 증가
3.4 HBM 3사 — 2차 수혜
Custom ASIC도 HBM 대량 탑재:
- Trainium3 Ultra: HBM4 128GB
- TPU v7: HBM3e 확대
- MTIA v3: HBM3e
의미: HBM 수요는 NVIDIA 전용이 아닌 Custom ASIC 포함 전체 AI 가속기에서 발생.
3.5 NVIDIA — 방어 전략
NVIDIA Rubin CPX — 추론 최적화
- Rubin의 추론 전용 버전
- Custom ASIC 대비 토큰당 비용 경쟁력
- 2026 H2 출시
Spectrum-X · NVLink Fusion
- AI 클러스터 네트워크 락인
- Custom ASIC 고객도 NVIDIA 네트워크 사용
CUDA 생태계 강화
- 소프트웨어 우위 유지
- LLM · 컴퓨터 비전 · 자율주행 등 수직 확장
3.6 투자자 관점에서 보면
Custom ASIC 시대는 "NVIDIA 우위 유지 + Broadcom · Marvell 급성장 + TSMC · HBM 3사 이중 수혜" 구도.
투자 포지셔닝:
- NVIDIA: 여전히 최대 수혜, 단 성장률 둔화 가능 (+30% YoY)
- Broadcom: 독자적 수혜 축 (+70% YoY AI 매출)
- Marvell: 2위 수혜 (+40%)
- TSMC: 제조 독점 유지
- SK하이닉스 · Samsung · Micron: HBM 수요 다변화
4절. 관련 IC 메모 (Back-links)
5절. 12-24개월 관전 KPI
5.1 Broadcom Q2-Q4 FY26 AI 매출
- Q2 가이던스 $22B
- 연 $85B 목표 확인
- 측정: Broadcom 분기 실적
5.2 AWS Trainium3 Ultra 양산
- 2026 H2 HBM4 버전
- Anthropic 공급 확대 확인
5.3 Google TPU v7 출시
- 2026 H2-2027 예정
- Anthropic 계약 확대
5.4 Meta MTIA v3 Llama 5 훈련 비중
- 자체 훈련 몇 % MTIA 전환
- NVIDIA 의존 감소 여부
5.5 NVIDIA Rubin CPX 시장 반응
- Custom ASIC 대비 TCO 경쟁력
- 하이퍼스케일러 도입 결정
🧠 개념 사전
출처
- Broadcom Q1 FY26 AI Revenue
- Marvell AI ASIC Outlook — Motley Fool 2026-03
- Google TPU v5/v6 — Google Cloud
- AWS Trainium3 Ultra — AWS re:Invent 2025
- Meta MTIA v3 — Meta AI Research
- Microsoft Maia · Cobalt — Azure
- Anthropic TPU Contract — Reuters
- NVIDIA Rubin CPX — CES 2026
- Custom ASIC Market Forecast — Dell'Oro
- TSMC CoWoS AI ASIC — TrendForce
Digest 메타데이터
- 생성일: 2026-04-19 (Phase 3 신규)
- 독자 가정: 투자 지식은 있으나 기술 배경 없는 비전공 투자자
- 분량: ~570줄
- Mermaid: 1개 (ASIC 생태계)
- 에이전트: tech-explainer · industry-contextualizer · moat-educator · curriculum-synthesizer