2026년 5월 4일 AI 뉴스 — Claude Code 비용 최적화, Perplexity MCP, VS Code Copilot 자동 크레딧 논란
VS Code의 Copilot 자동 attribution 논란, Claude Code 비용 절감 라우팅, Uber 엔지니어당 월 $500~2000 AI 코딩 예산 데이터, Perplexity MCP, Context Mode, fabrica 등 오늘의 AI 뉴스.
VS Code, 모든 커밋에 'Co-authored-by: Copilot' 자동 삽입 논란
마이크로소프트가 PR #310226를 머지하며 VS Code Git 익스텐션의 `git.addAICoAuthor` 기본값을 `"off"`에서 `"all"`로 바꿨다. 결과적으로 Copilot을 사용하지 않은 커밋에도 `Co-authored-by: Copilot <copilot@github.com>` 라인이 자동으로 삽입되기 시작했고, "한 줄 한 줄 직접 작성했는데 Copilot이 공동 저자로 박혀 있다"는 항의가 쏟아졌다.
문제의 핵심은 두 가지다. 첫째, `disableAIFeatures` 설정을 적용한 사용자에게도 attribution이 추가됐다. 둘째, AI가 전혀 개입하지 않은 변경에도 공동 저자 크레딧이 붙었다. 4월 16일 머지된 이 PR은 372건의 부정 반응을 받았고, 5월 2일 컨트리뷰터 dmitrivMS가 회귀임을 인정하면서 v1.119에서 수정하기로 했다. 후속 PR #313931이 이미 진행 중이다.
VS Code 사용자라면 지금 당장 `git config` 또는 워크스페이스 설정에서 `git.addAICoAuthor`를 `"off"`로 바꾸는 게 안전하다. 자동 attribution은 라이선스·책임·감사 문제로 이어질 수 있다.
원본: https://github.com/microsoft/vscode/pull/310226
Claude Code에 $0.02 코워커를 붙여 Pro 한도를 멈춘 셋업
매주 Pro 한도(Weekly Limit)에 막혀 작업이 끊기는 사용자들이 늘면서, Claude Code 본체는 Opus·Sonnet 4.6 같은 고성능 모델로 두고 보조 작업은 호출당 $0.02 수준의 저가 Sonnet에 위임하는 라우팅 셋업이 r/ClaudeAI에 공유됐다. 핵심 아이디어는 "본 모델이 계획·판단·코드 편집을 맡고, 단순 파일 읽기·grep·정리·요약 같은 mechanical 작업은 보조 모델이 처리"하는 분업 구조다.
저가 모델 호출이 Pro 한도를 깎지 않기 때문에 주간 캡에 도달하지 않고 작업을 이어갈 수 있다. 운영자는 라우팅 룰과 프롬프트 템플릿, 비용 트래킹 로직까지 풀 셋업으로 공개했다. 자체 사용량으로 환산하면 풀데이 작업 기준 월 $50 이하로 한도 문제가 사라진다고 한다.
Anthropic 정액 한도 의존이 부담스러운 팀이라면 비싼 Opus를 본체에 두고 mechanical 호출만 외부 모델로 분기하는 패턴은 합리적이다.
원본: https://reddit.com/r/ClaudeAI/comments/1t1o43w/i_gave_claude_code_a_002call_coworker_and_stopped/
Uber, 4개월 만에 2026년 AI 코딩 예산 전부 소진 — 엔지니어당 월 $500~$2,000
Uber가 2026년에 책정한 AI 코딩 도구 예산을 4개월 만에 전부 사용했다는 내부 데이터가 r/artificial에 공유됐다. 엔지니어 1인당 월간 사용액은 $500에서 $2,000 사이에 분포했고, 평균은 그 중간대를 기록했다. Cursor·Claude Code·Codex 등 코딩 어시스턴트 비용이 합산된 수치다.
이 데이터가 의미 있는 이유는, 자체 도구 도입을 검토 중인 팀이 "엔지니어당 얼마"라는 벤치마크를 잡을 때 참고할 수 있는 실측 데이터이기 때문이다. 종종 보이는 "엔지니어당 월 $50으로 충분"이라는 추정과는 한 자릿수 차이다. 실제 vibe coding 환경에서는 모델 호출 빈도와 컨텍스트 크기가 동시에 커지면서 비용이 빠르게 누적된다.
해당 스레드의 댓글에서도 "ROI가 분명히 있어서 예산을 다시 늘렸다"는 언급이 나온다. 단가 자체가 크지만, 절감되는 엔지니어 시간을 환산하면 여전히 양의 수익률이 나온다는 뜻이다.
원본: https://reddit.com/r/artificial/comments/1t1mhx6/uber_burned_its_entire_2026_ai_coding_budget_in_4/
VSCode-Perplexity-MCP — 개인 Perplexity 계정을 Claude에 연결하는 MCP
별도 API 계약 없이 본인 Perplexity 계정을 Claude의 도구로 노출시키는 MCP 서버가 공개됐다. Perplexity 웹앱이 보내는 동일한 요청 형식을 재구성해 Server-Sent Events 스트림을 파싱하고, 결과를 인용·제안 포함 구조화된 도구 출력으로 변환한다.
제공되는 툴은 다섯 가지다. `perplexity_search`(빠른 웹 룩업), `perplexity_ask`(인용 포함 합성 답변), `perplexity_reason`(다단계 분석), `perplexity_research`(롱폼 리포트), `perplexity_compute`(Computer 모드/ASI 연산). `sources` 파라미터로 `web`, `scholar`(학술), `social`(논의)을 선택할 수 있다. 세션 쿠키는 `~/.perplexity-mcp/`에 암호화 저장되고 프로필 변경을 핫 리로드한다.
VS Code 익스텐션과 npm 패키지로 모두 배포되며, Claude Desktop·Cursor·Windsurf·Cline·Amp·Codex CLI까지 자동 설정된다. Perplexity Pro 구독자라면 별도 API 비용 없이 한 답변에 200개 이상의 소스를 활용하는 검색을 Claude에 붙일 수 있다.
원본: https://github.com/Automations-Project/VSCode-Perplexity-MCP
Voice-AI-for-Beginners — 음성 AI 처음 시작하는 개발자용 5주 학습 경로
음성 에이전트 파이프라인을 처음부터 구축해보고 싶은 주니어~중급 개발자를 대상으로 한 큐레이션 학습 경로가 깃허브에 정리됐다. STT-LLM-TTS 스트리밍 패턴부터 시작해서 LiveKit Agents와 Pipecat을 핵심 오픈소스 프레임워크로 다루고, WebRTC와 SIP를 통한 실제 전화 연결까지 커버한다.
5주 커리큘럼이 명확하다. 1주차는 파이프라인 아키텍처 기초, 2주차는 LiveKit 또는 Pipecat 퀵스타트로 작동하는 에이전트 배포, 3주차는 STT/TTS 프로바이더 교체로 레이턴시 트레이드오프 학습, 4주차는 음성 활동 감지(VAD)와 텔레포니 연결, 5주차는 평가 프레임워크와 컴플라이언스 검토. 모든 자료에 초급/중급/고급 태그가 붙어 있다.
콜센터·고객 응대·전화 봇 등 음성 에이전트 도입을 검토하는 팀에게는 기획 단계에서 학습 시퀀스를 잡기 좋은 자료다.
원본: https://github.com/mahimairaja/voiceai
Claude-Ads — Claude Code 스킬로 광고 대행사 감사 자동화
구글·메타·유튜브·링크드인·틱톡·MS Bing·애플 광고 7개 플랫폼 캠페인을 250개 이상의 자동화 체크로 감사하는 Claude Code 스킬이 공개됐다. 결과는 0~100점 Ads Health Score로 산출되고, 우선순위가 매겨진 액션 플랜이 함께 나온다. 6개 서브에이전트를 병렬로 돌려 멀티 플랫폼 평가 속도를 단축한다.
기능 범위가 넓다. SaaS·이커머스·헬스케어 등 11개 이상 업종별 전략 템플릿, CPA·ROAS·손익분기 분석을 위한 PPC 계산기, 크리에이티브 평가 및 생성 에이전트, 클라이언트 제출용 PDF 리포트 생성까지 포함한다. 광고 대행사를 완전히 대체한다기보다는 분석·진단·최적화 영역을 자동화하는 도구로 보는 게 정확하다.
광고 운영을 사이드로 하는 1인 사업자나, 외부 대행사 의존도를 줄이려는 인하우스 마케팅팀에게는 첫 진단을 빠르게 끝내고 액션 아이템을 뽑는 데 유용하다.
원본: https://github.com/AgriciDaniel/claude-ads
Context Mode — AI 코딩 에이전트 컨텍스트 윈도우를 98% 절약하는 MCP
긴 코딩 세션에서 컨텍스트 윈도우가 도구 출력으로 가득 차는 문제가 항상 있다. Playwright 스냅샷 한 번이 56KB, GitHub 이슈 20개가 59KB, 액세스 로그가 45KB를 잡아먹고, 30분이 지나면 컨텍스트의 약 40%가 사라진다. Context Mode는 이 문제를 4가지 메커니즘으로 해결하는 MCP 서버다.
첫째, 출력 샌드박싱 — 도구 호출의 raw 데이터가 컨텍스트로 들어가지 않고 요약만 전달된다(315KB가 5.4KB로). 둘째, SQLite 기반 세션 연속성 — 모든 파일 편집·git 작업·태스크·에러를 FTS5 풀텍스트 인덱스로 저장하고 BM25 랭킹으로 관련 정보만 복원한다. 셋째, 코드 주도 분석 — 파일 수십 개를 읽는 대신 에이전트가 스크립트를 작성해서 결과만 출력으로 받는다. 넷째, 출력 압축 — 군더더기를 제거한 간결 응답으로 출력 토큰을 65~75% 줄인다.
Claude Code, Gemini CLI, VS Code Copilot, Cursor, JetBrains Copilot, OpenCode, Codex CLI 등 14개 플랫폼을 지원한다. 클라우드 동기화, 텔레메트리, 계정 모두 없고 완전히 로컬에서 동작한다. 컨텍스트 압축으로 작업 흐름이 자주 끊긴다면 시도해볼 만하다.
원본: https://github.com/mksglu/context-mode
fabrica — Rust로 작성된 미니멀 터미널 코딩 에이전트 하네스
Rust로 빌드된 터미널 코딩 에이전트가 Lobsters에 등장했다. 풀 TUI 인터페이스로 대화형 인터랙션을 제공하며, Claude Code·Gemini CLI 같은 메인스트림 도구의 미니멀 대안을 직접 만들고 싶은 개발자가 쉽게 포크해서 커스텀할 수 있는 구조다.
특징은 네 가지다. 첫째, 멀티 프로바이더 — Google Gemini, Anthropic Claude, OpenAI 모델을 인앱 피커로 즉시 전환할 수 있다. 둘째, 자율 도구 접근 — 파일 read/write/edit과 bash 실행을 에이전트가 직접 처리한다. 셋째, 에이전틱 워크플로우 — 모델이 도구 호출로 멀티스텝 작업을 계획·실행·완료까지 끌고 간다. 넷째, 헤드리스 모드 — Agent Client Protocol(ACP) 서버로 실행되어 다른 도구와 프로그래매틱하게 통합된다.
설치는 `cargo install fabrica-cli` 한 줄. MIT 라이선스이고 코드 베이스가 작아 자체 코딩 에이전트 하네스를 처음부터 이해하고 싶은 개발자에게 적합하다.
원본: https://github.com/Endi1/fabrica
---
오늘의 AI 뉴스 큐레이션은 나무숲(treesoop)이 매일 운영하는 매일 AI News 카카오톡 오픈채팅에서도 매일 아침 발송됩니다. AI 자동화·바이브 코딩·에이전트 워크플로우 도입을 고민 중이시라면 나무숲에 문의주세요.