본문 바로가기
반응형

전체 글840

GitHub 코딩 에이전트 팀에 썼더니 Actions 요금이 두 배 됐다, 쓰기 전에 알아야 할 것 Copilot을 코드 자동완성 도구로만 쓰다가, 지난달에 처음으로 cloud agent를 써봤다. 이슈에 Copilot을 할당했더니 30분 뒤에 PR이 올라와 있었다. 그 순간 "어, 이게 그냥 자동완성이 아니구나" 하는 생각이 들었다. 그리고 청구서를 보고 다시 한번 놀랐다. GitHub Actions 요금이 두 배가 됐다는 걸 그때서야 알았다.Copilot이 세 개로 나뉜 줄 몰랐다요즘 Copilot은 사실 3계층으로 나뉜다. 아직 "자동완성 = Copilot"이라고 생각하는 사람이 많은데, 이제는 그게 한 축에 불과하다.Inline suggestions — 코드 짜다가 회색 글씨로 제안 뜨는 그것. 반복 코드, 변수명, 테스트 스캐폴딩에 강하다.Copilot Chat (ask·plan·agent m.. 2026. 5. 9.
GitHub Copilot Workspace 써봤는데, 57% 빠르다는 말은 맞고 나머지는 달랐다 GitHub Copilot Workspace를 처음 접했을 때 솔직히 반신반의했다. 이슈 하나 던져주면 AI가 계획 세우고, 코드 짜고, PR까지 올려준다는 게 너무 그럴싸하게 들렸거든. 몇 달 전부터 팀에 도입해서 써봤는데, 57% 빠르다는 말은 실제로 어느 정도 맞았다. 그런데 나머지 부분은 좀 달랐다.코딩 에이전트 모드랑 Workspace, 같은 것처럼 보여서 처음엔 헷갈렸다IDE에서 쓰는 Copilot 에이전트 모드랑 Copilot Workspace가 뭐가 다른지 처음엔 구분이 안 됐다. 쓰다 보니 핵심 차이가 있었다.IDE의 에이전트 모드는 내 로컬 환경에서 직접 파일을 편집하는 방식이다. 반면 Copilot Workspace(공식 명칭으로는 'Copilot 코딩 에이전트')는 GitHub Ac.. 2026. 5. 9.
RAG 파이프라인 만들다 3번 갈아엎었다, 실패 패턴이 있었다 RAG 파이프라인 구축을 처음 시작했을 때, 임베딩 모델을 잘 고르는 게 핵심이라고 생각했다. 모델이 좋으면 검색도 좋아진다는 논리였다. 결론부터 말하면 완전히 틀렸다. 구조를 세 번 갈아엎고 나서야 진짜 문제가 청크 전략에 있었다는 걸 알았다.처음엔 임베딩 모델만 좋으면 된다고 생각했다첫 번째 RAG 시스템은 내부 문서 검색 툴이었다. PDF 30개 정도를 인덱싱해서 질문에 답변을 뽑아내는 간단한 구조였다. LangChain 튜토리얼 따라가면 하루 만에 끝났다. 문서를 불러오고, 512 토큰 단위로 쪼개고, 임베딩 걸고, ChromaDB에 넣었다. 그런데 막상 써보니 답변이 영 엉망이었다."3분기 매출은?" 이라고 물었더니 엉뚱한 분기 데이터를 가져왔다. "계약서 해지 조건이 뭐야?" 물었더니 계약서의.. 2026. 5. 9.
Anthropic Mythos 외 15건 — Interaction Brief 5월 8일 5월의 금요일 아침, 스튜디오 밖으로 봄바람이 지나가는 날입니다. Anthropic의 AI가 15년 묵은 Firefox 버그를 조용히 파헤치는 사이, Maxon은 모션 디자인 툴 하나를 무료로 열어뒀습니다. 오늘도 기술은 도구가 되고, 도구는 다시 가능성이 됩니다.오늘의 3줄 요약Anthropic Mythos, Firefox에서 423건 보안 패치 이끌어 — 15년 묵은 버그 포함, AI 사이버보안의 새 기준 제시Maxon, USD 기반 모션 디자인 툴 Autograph를 스튜디오 완전 무료 개방 — VFX 파이프라인 진입 장벽 낮춰중국 Moonshot AI, $20B 밸류에이션에 $2B 조달 — Kimi K2.6 오픈소스 LLM 수요 폭발 속 글로벌 경쟁 본격화Daily FocusAnthropic My.. 2026. 5. 9.
AI 에이전트가 프로덕션에서 망하는 이유, 모델 문제가 아니었다 AI 에이전트를 처음 프로덕션에 올렸을 때, 나는 모델만 좋으면 다 된다고 생각했다. 어차피 추론 능력이 전부 아닌가. 그런데 실제로 운영을 시작하자마자 터진 문제들은 전혀 다른 곳에서 왔다. 루프를 도는 에이전트, 엉뚱한 파라미터로 툴을 부르는 에이전트, 컨텍스트가 가득 찬 채로 처음 한 일을 까먹는 에이전트. 모델 품질 문제가 아니었다. 인프라 문제였다.올해 클라이언트 23건의 에이전트 장애를 분석한 결과, 4가지 패턴이 전체의 90%를 차지했다. 흥미로운 건, 이 4가지 모두 모델을 교체한다고 해결되는 게 아니라는 점이다.패턴 1: 툴 콜 실패 — 스키마가 헐렁하면 모델이 알아서 망친다툴을 정의할 때 JSON 스키마를 대충 적으면 어떻게 되는지 직접 겪었다. 필터 파라미터를 그냥 object로 열어.. 2026. 5. 9.
클로드(Claude) 비용은 절반, 품질은 두 배 — 검증된 7가지 레버 클로드(Claude) 비용은 절반, 품질은 두 배 — 검증된 7가지 레버"토큰을 아끼는 것"과 "퀄리티를 높이는 것"은 흔히 상충한다고 오해받지만, 실제 데이터는 정반대를 말한다. 컨텍스트가 깨끗할수록, 작업이 잘 계획될수록, 모델이 적재적소에 쓰일수록 — 비용은 줄고 답변은 좋아진다.이 글은 Anthropic 공식 문서, 실제 운영 사례, 그리고 2026년 기준 최신 벤치마크를 교차 검증해 정리한 7가지 핵심 레버다. 각 레버마다 바로 복붙해서 쓸 수 있는 사용예시를 함께 실었다.1. Prompt Caching — 가장 큰 한 방 (최대 90% 입력 비용 절감)같은 시스템 프롬프트나 참고 문서를 반복 호출하는 워크플로우라면, 가장 먼저 손대야 할 레버다.캐시 read = 입력가의 10% / write .. 2026. 5. 8.
반응형