
Vercel AI SDK 7.0 베타, 처음 써봤더니 생각보다 많이 달라졌다
솔직히 AI SDK 버전 올라간다고 크게 달라지겠나 싶었다. 그냥 마이너 패치에 버전 숫자만 바뀌는 거 아닐까 하고. 근데 7.0 베타 붙여보고 나서 생각이 좀 바뀌었다.
Vercel AI SDK는 Next.js 만드는 팀에서 나온 TypeScript용 AI 앱 개발 라이브러리다. GPT, Claude, Gemini 같은 모델을 일관된 방식으로 붙일 수 있게 해주는 도구인데, 2024년부터 꽤 많이 쓰이고 있다. 지난주에 7.0.0-beta.66이 나왔다.

뭐가 달라졌냐면
가장 눈에 띈 건 에이전트 루프 처리 방식이다. 6.x 버전까지는 tool call → 결과 처리 → 재요청 이 흐름을 직접 제어해야 했는데, 7.0에서는 이게 내부적으로 많이 추상화됐다.
예를 들어 이런 패턴이 있었다면:
// 6.x 방식 - 수동으로 루프 관리
while (result.finishReason === 'tool-calls') {
result = await ai.generateText({ ... });
}
7.0에서는 maxSteps 옵션 하나로 정리된다. 코드가 줄어드는 건 좋은데, 내부 동작이 감춰지는 만큼 디버깅이 살짝 까다로워진다는 단점도 있긴 하다.

스트리밍 처리가 좀 바뀌었다
스트리밍 API에서 streamText의 반환 타입이 바뀌었다. 기존에 textStream으로 꺼내던 방식이 그대로 호환은 되는데, 새로운 fullStream을 쓰면 토큰 외에도 tool call, 에러, finish reason 같은 이벤트를 한 스트림에서 처리할 수 있다.
실제로 써봤더니 프론트에서 처리 로직이 단순해졌다. 예전엔 토큰 스트림이랑 기타 이벤트를 따로 구독했는데, 이제 하나로 합쳐진 셈이다.

멀티모달 처리도 좀 정리됐다
이미지 input을 넣는 방식이 조금 더 일관성 있게 바뀌었다. URL이든 base64든 같은 인터페이스로 처리되고, 파일 업로드 시나리오에서 타입 추론이 더 잘 된다.
근데 솔직히 이 부분은 아직 베타라 API가 바뀔 수 있다. 프로덕션에 바로 올리기엔 좀 이르고, 신규 프로젝트에서 실험해보는 용도로는 충분하다.
아직 아쉬운 점
베타라 문서가 따라오질 못하고 있다. 코드 예시가 5.x 기준인 게 많아서 실제 7.0과 맞지 않는 경우가 꽤 된다. GitHub Releases 보면서 직접 changelog 읽는 게 지금은 더 정확하다.
그리고 provider별로 지원 범위가 다른 건 변함이 없다. OpenAI는 거의 다 되는데 Mistral이나 Cohere는 일부 기능이 아직 stub 수준이다.
정리하자면
Next.js로 AI 앱 만들고 있다면 7.0 베타 한번 살펴볼 가치는 있다. 에이전트 루프 추상화랑 스트리밍 통합이 꽤 편해졌고, TypeScript 타입도 더 정교해졌다. 다만 지금 당장 기존 코드 마이그레이션하는 건 좀 기다리는 게 낫다. 정식 릴리즈 나오면 그때 옮기는 게 현실적이다.
📎 참고 자료
'AI.IT' 카테고리의 다른 글
| 딥시크, 엔비디아 없이 간다 — 개발자한테 실제로 뭐가 달라지나 (0) | 2026.04.08 |
|---|---|
| GPT-5.4 vs Gemini 3.1 vs Claude 4.6, 4월에 셋 다 써보고 정리했다 (0) | 2026.04.08 |
| 솔직히 AI 좀 과대평가 아닌가 했는데 (0) | 2026.04.07 |
| 프롬프트 캐싱, 붙이고 나서야 비용보다 지연시간이 먼저 보였다 (0) | 2026.04.07 |
| Responses API로 갈아탈 타이밍, Assistants 종료 공지에서 읽히는 방향 (0) | 2026.04.07 |