"AI 쓰려면 엔비디아 필요하다"는 공식이 흔들리고 있다.
딥시크 V4가 화웨이 Ascend 950 PR 칩 기반으로 출시 준비 중이라는 소식이 나왔다. 로이터와 트렌드포스가 연달아 보도했고, 이르면 수 주 안에 공개될 것으로 보인다. 처음엔 "중국 AI 뉴스네" 하고 넘겼는데, 생각해보니 이게 은근히 개발자한테 영향 있는 얘기더라.
단순히 어떤 칩 쓴다는 하드웨어 이야기가 아니다. AI 모델을 쓰는 방식, 비용, 선택지가 달라질 수 있는 구조적인 변화다.

지금까지는 엔비디아 없으면 불가능에 가까웠다
LLM 훈련과 추론에서 CUDA 생태계 의존도는 엄청나다. 개발자 입장에서 보면, 클라우드 API 쓸 때도 결국 백엔드는 NVIDIA GPU 서버다. AWS, Azure, GCP 모두 H100 대기 줄이 있을 정도로 GPU는 귀하다. 가격도 비싸다.
딥시크는 R1 출시 때 이미 한 번 업계를 놀라게 했다. 오픈소스로 공개했고, API 가격이 GPT-4o 대비 10분의 1 수준이었다. 근데 그 모델도 결국 엔비디아 칩으로 돌아가고 있었다. V4는 다르다. 화웨이 Ascend 칩으로 전면 전환이다.

이게 개발자한테 왜 중요한가
솔직히 칩 종류가 API 쓰는 사람한테 직접적 영향을 주진 않는다. 근데 간접 영향이 꽤 크다.
첫째, 공급 안정성이 달라진다. 딥시크가 엔비디아 칩에만 의존했다면 미국 수출 규제 때마다 흔들렸을 거다. 화웨이 Ascend 기반 자체 스택이 완성되면 중국 내 GPU 부족 문제에서 자유로워진다. 딥시크 API가 지금보다 안정적으로 공급될 가능성이 생긴다.
둘째, 가격 경쟁이 심화된다. 딥시크는 이미 가격 파괴자 역할을 하고 있다. 화웨이 칩은 H100 대비 성능은 낮지만 가격도 훨씬 낮다. 원가가 낮아지면 API 가격도 더 내려갈 여지가 있다. 이미 낮은데 더 낮아진다고? 솔직히 좋은 거다.
셋째, 오픈소스 생태계가 넓어진다. V4도 R1처럼 오픈소스로 공개될 가능성이 높다. 그러면 Hugging Face에서 받아서 로컬 실행이 가능해진다. 다만 화웨이 Ascend 칩이 없으면 NVIDIA GPU로 돌리는 방법을 별도로 찾아야 할 수 있다. 이 부분이 좀 불편할 수 있다.

지금 딥시크 API, 실제로 써볼 만한가
V4 기다리기 전에, 지금 딥시크 V3/R1 API를 써보는 것도 나쁘지 않다. 써봤는데 생각보다 괜찮았다.
API 키는 platform.deepseek.com에서 발급받을 수 있다. OpenAI API랑 호환 인터페이스라 마이그레이션이 거의 없다시피 하다.
# Python 예시 (OpenAI SDK 호환)
from openai import OpenAI
client = OpenAI(
api_key="YOUR_DEEPSEEK_API_KEY",
base_url="https://api.deepseek.com"
)
response = client.chat.completions.create(
model="deepseek-chat", # V3
messages=[{"role": "user", "content": "안녕"}]
)
print(response.choices[0].message.content)
OpenRouter를 통하면 API 키 하나로 딥시크 포함 여러 모델을 쓸 수 있어서 테스트하기 편하다. 비용도 처음엔 크레딧 좀 줘서 무료로 써볼 수 있다.
R1 모델은 추론 특화라 코드 리뷰나 복잡한 문제 풀이에 쓸 만하다. 가격 대비 성능은 진짜 좋은 편이다. 다만 한국어 처리는 GPT-4o 대비 살짝 어색한 부분이 있긴 했다. 완벽하진 않다.

V4 나오면 뭘 기대해볼 수 있나
아직 확정된 스펙은 없지만 유출된 정보와 방향성을 보면 몇 가지 예상이 가능하다.
MoE(Mixture of Experts) 아키텍처는 유지될 거다. R1, V3 모두 MoE 기반이었고, 이 구조가 효율성 면에서 딥시크의 강점이다. 컨텍스트 윈도우는 더 늘어날 가능성이 높다. 멀티모달 지원도 강화될 것 같다.
화웨이 칩 기반이라는 게 성능에 어떤 영향을 줄지는 솔직히 좀 지켜봐야 한다. Ascend 910B가 H100 대비 성능이 낮은 건 사실이다. 최신 Ascend 950 PR은 격차를 줄였다는데, 실제로 어느 정도인지는 벤치마크를 봐야 알 거다.
개인적으로 기대하는 건 가격이다. 원가 구조가 개선되면 V4 API 가격이 V3보다 더 낮아질 수도 있다. 그렇게 되면 비용 민감한 프로젝트에서 딥시크를 주력 모델로 고려하는 팀이 늘어날 거다.
📎 참고 자료
'AI.IT' 카테고리의 다른 글
| 멀티모달 AI 붙일 때 OCR부터 따로 짜지 않게 된 이유 (0) | 2026.04.09 |
|---|---|
| 작은 모델 먼저 붙여봤더니, 큰 모델이 꼭 답은 아니었다 (0) | 2026.04.09 |
| GPT-5.4 vs Gemini 3.1 vs Claude 4.6, 4월에 셋 다 써보고 정리했다 (0) | 2026.04.08 |
| Vercel AI SDK 7.0 베타, 처음 써봤더니 생각보다 많이 달라졌다 (0) | 2026.04.08 |
| 솔직히 AI 좀 과대평가 아닌가 했는데 (0) | 2026.04.07 |