728x90
반응형
엔비디아(NVDA)가 2025년 크리스마스 이브에 발표한 Groq와의 200억 달러 규모 라이선스 계약은 단순한 기술 확보를 넘어, AI 산업의 중심축이 '학습'에서 **'추론(Inference)'**으로 이동하고 있음을 보여주는 역사적 사건입니다.
1. 이번 거래의 핵심 포인트: '사실상의 인수(Semi-acquisition)'
- 거래 구조: 엔비디아는 Groq 법인 전체를 사들이는 대신, 기술 자산(IP) 및 핵심 인재를 흡수하는 전략을 택했습니다. 이는 반독점 규제를 피하면서도 경쟁사의 핵심 역량을 내재화하는 영리한 행보로 평가받습니다.
- 인적 자원 확보: 구글 TPU의 창시자 **조나단 로스(Jonathan Ross)**와 써니 마드라 사장이 엔비디아에 합류합니다. 이는 엔비디아가 커스텀 AI 칩과 추론 엔진 설계 역량을 세계 최고 수준으로 끌어올렸음을 의미합니다.
- 역대 최대 규모: 2019년 멜라녹스(70억 달러) 인수를 훨씬 상회하는 200억 달러(약 29조 원) 규모로, 엔비디아 역사상 가장 비싼 기술 베팅입니다.
2. 왜 Groq의 'SRAM 추론 방식'인가?
엔비디아가 Groq를 선택한 이유는 기존 GPU의 한계를 극복할 LPU(Language Processing Unit) 기술 때문입니다.
- SRAM vs HBM: Groq는 값비싸고 병목 현상이 잦은 HBM(고대역폭메모리) 대신 칩 내부에 탑재된 SRAM을 활용합니다.
- 압도적 속도: SRAM 방식은 토큰 생성 속도를 극대화하여 챗봇 응답 지연 시간(Latency)을 획기적으로 줄입니다.
- 에너지 효율: 14nm 공정임에도 불구하고 최첨단 GPU 대비 에너지 효율은 10배, 비용은 대폭 절감할 수 있다는 점이 입증되었습니다.
3. 엔비디아의 미래 로드맵: '추론 경제성' 확보
엔비디아는 향후 AI 워크로드의 **60~80%**가 추론에서 발생할 것으로 보고 있습니다. 이번 계약은 이를 대비한 방어와 공격을 동시에 수행합니다.
- 기술 통합: 2027~2028년 출시 예정인 파인만(Feynman) 노드에 Groq의 LPU 및 SRAM 최적화 기술이 통합될 가능성이 큽니다.
- HBM 의존도 완화: SRAM 비중을 높여 공급망 리스크(HBM 수급난)를 줄이고 전체 소유 비용(TCO)을 낮추는 방향으로 아키텍처를 개선할 전망입니다.
- 추론 시장 수성: 구글(TPU), AWS(Inferentia) 등 빅테크의 자체 칩 공세에 맞서 '엔비디아 생태계' 안에서도 압도적인 추론 성능을 제공하겠다는 전략입니다.
4. 투자 의견 및 목표주가
- 투자의견: 매수(Outperform) 유지
- 목표주가: 245달러 (2027년 예상 P/E 35배 적용)
- 분석: Groq의 2025년 예상 매출 대비 40배에 달하는 높은 인수가임에도 불구하고, 추론 시장의 독점적 지위를 공고히 한다는 측면에서 장기적 가치는 충분합니다.
관련 밸류체인 및 수혜주
| 구분 | 종목명 | 수혜 사유 |
| 직접 수혜 | 엔비디아(NVDA) | 추론 기술 해자 강화, 핵심 엔지니어링 인재 확보 |
| 설계 파트너 | 브로드컴(AVGO) | 커스텀 AI 칩 및 추론 로드맵 가속화에 따른 기술적 시너지 |
| 공급망 영향 | 삼성전자 / SK하이닉스 | 장기적으로 SRAM 비중 확대 시 HBM 성장 둔화 우려가 있으나, 하이브리드 본딩 등 차세대 패키징 기술 협력 필요성 증가 |
반응형
'해외주식' 카테고리의 다른 글
| xAI, 두산에너빌리티 가스터빈으로 '1GW급 AI 팩토리' 가속화 (0) | 2026.01.06 |
|---|---|
| TSMC, 2나노 시대 개막 및 미국 생산 기지 가속화 (0) | 2025.12.31 |
| 바이트댄스, 'AI 주권' 확보 위해 34조 원 투입… 엔비디아 H200 확보가 관건 (0) | 2025.12.31 |
| 일본 화낙(FANUC), '35만 대 신화' R-2000 재설계… 2026년 로봇 세대교체 선언 (0) | 2025.12.30 |
| 메타, 'AI 에이전트' 게임체인저 마누스(Manus) 인수… 챗봇 시대 넘어 자율 AI로 (0) | 2025.12.30 |