본문 바로가기
AI.IT

AI 소식인데, 생각보다 파급력 있다

by bamsik 2026. 4. 1.
반응형

NVIDIA가 경쟁사에 2조원을 넣었다는 뉴스가 어제 떴다. 처음엔 "응? 경쟁사한테 왜?"라고 생각했는데, 들여다볼수록 그냥 투자 뉴스가 아니더라고.

솔직히 나도 처음엔 "주가 뉴스겠지" 하고 넘기려다가, NVLink Fusion이라는 키워드가 눈에 걸렸다. 이게 뭔지 좀 파봤는데, AI 개발을 다루는 사람이라면 한 번쯤은 알아둬야 할 내용인 것 같아서 정리해봤다.

NVIDIA가 왜 경쟁사에 투자했나

Marvell Technology는 커스텀 AI 칩(ASIC) 분야에서 꽤 이름 있는 회사다. 구글 TPU, 아마존 Trainium 같은 자체 칩을 만들 때 쓰이는 기반 기술을 제공한다. 한마디로 "NVIDIA GPU가 아닌 칩"을 만드는 생태계에 속한 회사.

근데 NVIDIA가 여기 2조원을 쐈다. 표면적으로는 이상하게 보인다. 자기 GPU의 대안을 만드는 회사에 왜 투자를 해?

핵심은 NVLink Fusion이다. NVLink는 원래 NVIDIA GPU끼리 고속으로 연결하는 기술인데, Fusion 버전은 외부 커스텀 칩도 이 생태계에 연결할 수 있게 해준다. 쉽게 말하면 "우리 GPU 안 써도 되는데, 대신 우리 네트워크·스토리지·소프트웨어 인프라는 써야 해"라는 구조다.

Marvell 주가가 당일 11% 뛴 이유가 여기 있다. 이제 Marvell 칩을 사용하는 고객들도 NVIDIA의 거대한 AI 팩토리 생태계에 탑승하게 된 거니까.

이게 나한테 왜 중요한가

AI 인프라 얘기는 "큰 회사들 이야기" 같아 보이지만, 실제로 개발자나 디자이너 입장에서도 꽤 직접적인 영향이 있다.

지금까지 클라우드 AI 서비스 비용은 대부분 NVIDIA GPU 가격에 연동돼 있었다. AWS, GCP, Azure가 제공하는 GPU 인스턴스 요금이 비싼 이유 중 하나가 NVIDIA에 대한 의존도였는데, 커스텀 ASIC 칩이 NVIDIA 생태계 안으로 통합되면 공급이 늘고 경쟁이 붙는다. 이론적으로는 AI 추론 비용이 내려갈 수 있는 구조다.

실제로 2025년 하반기부터 클라우드 GPU 비용이 서서히 하락 중이라는 분석도 나왔다. 이번 딜이 그 흐름을 가속시킬 가능성이 있다.

AI 도구 쓰는 사람 입장에서 뭘 챙겨볼까

당장 뭔가 바뀌는 건 아니다. NVLink Fusion이 상용화되고 Marvell의 XPU들이 실제 클라우드 인프라에 깔리려면 1~2년은 봐야 할 것 같다. 근데 미리 알아두면 좋은 게 있다.

  • AI API 비용 트렌드 체크: OpenAI, Anthropic, Claude API 요금이 지난 2년간 꽤 떨어졌다. 이 흐름이 인프라 경쟁이 붙으면서 생긴 거다. 앞으로도 이런 흐름이 이어질 가능성이 높다.
  • 클라우드 GPU 직접 쓰는 경우: RunPod, Lambda Labs 같은 GPU 클라우드도 요금 경쟁이 심해지고 있다. 지금 장기 계약이나 리저브드 인스턴스에 바로 묶이는 건 조금 기다려보는 게 나을 수 있다.
  • 온프레미스 vs 클라우드 판단: 5년 TCO 기준으로 온프레미스가 80% 이상 저렴한 계산이 나오는 상황인데, 클라우드 비용이 더 내려가면 이 공식도 바뀐다. 큰 결정 전에 다시 계산해볼 필요가 있다.

한계도 있다

솔직히 낙관론만 있는 건 아니다. NVLink Fusion이 확장된다는 건 결국 NVIDIA의 생태계 지배력이 더 강해진다는 뜻이기도 하다. NVIDIA GPU를 안 써도 NVIDIA 표준을 따라야 하는 구조가 된다면, 장기적으로 가격 협상력이 오히려 약해질 수 있다. "경쟁이 붙어서 싸진다" vs "표준이 단일화돼서 결국 NVIDIA 마음대로" — 어느 쪽이 될지는 좀 더 봐야 알 것 같다.

투자라는 게 당장 뭔가를 바꾸는 건 아니고, NVIDIA가 그리는 그림이 어떤 건지를 보여주는 신호다. 그 신호는 꽤 선명하다. "GPU를 팔겠다"가 아니라 "AI 인프라의 표준이 되겠다"는 거다. 개발자 입장에선 그 표준 위에서 일하게 될 가능성이 높다는 걸 염두에 두면 된다.


📎 참고 자료

반응형