블로그로 돌아가기
Tech Insight2026년 5월 5일127

2026년 5월 5일 AI 뉴스 — DeepClaude·n8n-mcp·Kimi K2.6

DeepClaude로 Claude Code 비용 17배 절감, n8n-mcp로 자연어 워크플로우, agency-agents 144개 전문 에이전트, Kimi K2.6 오픈웨이트 벤치마크 1위 등 오늘의 AI 뉴스.

오늘의 AI 뉴스에서는 Claude Code 비용을 17배 줄여주는 모델 라우팅 프록시 DeepClaude, GitHub 92.6k 스타를 돌파한 144개 전문 에이전트 묶음 agency-agents, 채팅으로 n8n 워크플로우를 만들어주는 MCP 서버 n8n-mcp가 큰 화제를 모았습니다. 1M 컨텍스트 DeepSeek V4를 터미널에서 그대로 굴리는 DeepSeek-TUI, 단어 퍼즐 벤치마크에서 Claude Opus 4.7과 GPT-5.5를 앞선 오픈웨이트 모델 Kimi K2.6, Claude Code의 stale context 문제를 푸는 memtrace까지 코딩 에이전트 생태계의 새 도구가 한꺼번에 쏟아졌습니다. 여기에 AGENTS.md 한 줄로 Codex의 잡일 비용을 줄이는 실전 팁, SVG 언더드로잉을 Gemini 3 Pro에 넣어 이미지 속 텍스트·숫자 정확도를 끌어올리는 방법까지 정리했습니다.

DeepClaude — Claude Code 비용을 17배 줄이는 프록시

DeepClaude는 Claude Code의 에이전트 루프는 그대로 두고, 모델 호출만 DeepSeek V4 Pro·OpenRouter·Fireworks 같은 저가 백엔드로 라우팅하는 로컬 프록시입니다. 동작 방식은 단순합니다. `ANTHROPIC_BASE_URL`과 `ANTHROPIC_AUTH_TOKEN` 환경변수를 통해 `localhost:3200`에서 도는 프록시로 모든 `/v1/messages` 요청을 흘려보내고, 거기서 선택한 백엔드로 다시 보냅니다. WebSocket 기반 원격 제어 세션은 Anthropic 브리지로 두고, 모델 API 호출만 분기하는 구조라 UI와 도구 호환성이 깨지지 않습니다.

세션 도중에 `/deepseek`, `/anthropic` 같은 슬래시 명령으로 백엔드를 즉시 바꿀 수 있고, 토큰 사용량과 절약 금액을 실시간으로 추적해주는 API 엔드포인트도 제공합니다. 가격 비교가 인상적입니다. DeepSeek V4 Pro는 출력 1M 토큰당 $0.87, OpenRouter는 $0.87, Fireworks는 $3.48 수준입니다. DeepSeek의 자동 컨텍스트 캐싱을 켜면 반복 요청 비용이 $0.004/M까지 떨어집니다. 자체 사용량으로 환산하면 월 10일 사용 기준 약 $20로 Anthropic $200 캡 대비 90% 절감입니다.

이미지 입력, MCP 서버 도구, 병렬 도구 호출은 호환되지 않으니 복잡한 추론은 Opus로 돌아가는 게 안전합니다. 그래도 코드 편집·셸 실행·서브에이전트 같은 일반 작업이 비용의 대부분을 차지하는 팀이라면 도입 부담이 적습니다. MIT 라이선스, 2분 셋업.

원본: https://github.com/aattaran/deepclaude

n8n-mcp — 채팅으로 n8n 워크플로우를 만드는 MCP 서버

n8n-mcp는 Claude·Cursor 같은 AI 어시스턴트가 n8n 워크플로우를 직접 이해하고 만들 수 있게 해주는 MCP 서버입니다. n8n 노드 1,650개(코어 820개, 커뮤니티 830개)에 대한 99% 속성 커버리지, 액션 도큐먼테이션 63.6%, 그리고 메타데이터가 붙은 워크플로우 템플릿 2,352개를 구조화된 형태로 노출합니다.

지원 환경이 넓습니다. Claude Desktop, Claude Code, Cursor, Windsurf, VS Code 모두 통합 가이드가 있고, 하루 100회 무료 호출이 제공되는 호스티드 대시보드(dashboard.n8n-mcp.com)도 있어 설치 없이 바로 시도할 수 있습니다. 자체 호스팅은 npx, Docker, Railway 중에서 고를 수 있고 워크플로우 CRUD를 위한 13개 관리 도구, 최소·전체·종합 3단계 검증 기능까지 포함됩니다.

리포는 GitHub 스타 19.9k, 릴리스 204개, 메인 브랜치 커밋 993개로 활발히 유지되고 있습니다. 가장 최근 v2.50.3은 5월 4일에 나왔습니다. n8n으로 사내 자동화를 운영 중이거나, 자연어로 통합 플로우를 설계하고 싶은 1인 개발자에게 도입 효율이 큽니다.

원본: https://github.com/czlonkowski/n8n-mcp

agency-agents — 144개 전문 에이전트로 만드는 1인 AI 에이전시

GitHub 스타 92.6k, 포크 15.2k의 agency-agents는 Claude와 다른 코딩 도구에서 바로 쓸 수 있는 144개 전문 에이전트 페르소나 모음입니다. 12개 디비전으로 정리되어 있어 프로젝트 단계마다 적합한 전문가를 호출하는 식으로 운영합니다.

엔지니어링 26개(프론트엔드, 백엔드 아키텍트, 보안 엔지니어, DevOps, 임베디드 펌웨어 등), 디자인 7개(UI 디자이너, UX 리서처, 접근성 감사), 페이드 미디어 8개, 세일즈 9개, 마케팅 25개+(Twitter, TikTok, Reddit부터 Xiaohongshu, Bilibili 같은 중국 플랫폼까지), 그리고 프로덕트·PM·QA·서포트·공간 컴퓨팅·학술·재무·게임 개발 디비전이 추가됩니다.

설치는 세 가지입니다. `~/.claude/agents/`로 복사해서 Claude Code에서 사용, `./scripts/install.sh`로 11개 플랫폼(Cursor, Copilot, Aider, Windsurf 포함) 인터랙티브 셋업, 또는 참고 자료로 활용. MIT 라이선스로 상업·개인 모두 자유롭게 쓸 수 있습니다. 1인 사업자나 소규모 팀이 클라이언트 워크 전 단계를 에이전트로 분담하고 싶을 때 출발점으로 적합합니다.

원본: https://github.com/msitarzewski/agency-agents

DeepSeek-TUI — 1M 컨텍스트 DeepSeek V4를 터미널에서

DeepSeek-TUI는 DeepSeek V4의 1M 토큰 컨텍스트를 터미널 한 칸에서 그대로 활용하는 코딩 에이전트입니다. 파일 읽기·편집, 셸 실행, 웹 검색, git 관리, 서브에이전트 코디네이션을 모두 처리하고 native RLM(reasoning language model)의 병렬 child inference, 사고 모드(thinking mode)에서의 실시간 chain-of-thought 스트리밍을 지원합니다.

세 가지 운영 모드가 핵심입니다. Plan(읽기 전용), Agent(인터랙티브 승인), YOLO(자동 승인). 세션 영속화와 워크스페이스 롤백, LSP 기반 진단, 사용자 메모리 통합까지 갖춰 장기 코딩 세션에서 컨텍스트가 끊기지 않습니다. 모델은 deepseek-v4-pro(1M 토큰, 출력 ~$0.87/1M)와 deepseek-v4-flash(1M 토큰, ~$0.28/1M) 중 선택할 수 있고, NVIDIA NIM·Fireworks·자체 호스팅 SGLang과도 호환됩니다.

설치는 `npm install -g deepseek-tui` 한 줄이거나 Rust 소스에서 빌드. Linux·macOS·Windows용 프리빌트 바이너리도 있습니다. Node·Python 런타임 없이 단일 바이너리, 통합 MCP 클라이언트, 영속 태스크 큐가 차별점입니다. v0.8.10이 5월 릴리스되어 UI 폴리시와 캐시 인지 최적화가 들어갔습니다.

원본: https://github.com/Hmbown/DeepSeek-TUI

Kimi K2.6, 단어 퍼즐 벤치마크에서 Claude·GPT-5.5 제침

Moonshot AI가 공개한 오픈웨이트 모델 Kimi K2.6이 Word Gem Puzzle 벤치마크에서 1위를 기록했습니다. 이 벤치마크는 10x10에서 30x30까지의 스크램블된 문자 격자에서 10초 안에 유효한 영어 단어를 식별하는 실시간 슬라이딩 타일 퍼즐입니다. 짧은 단어에는 페널티가 붙어 단순 사전 매칭으로는 점수가 안 나옵니다.

결과 수치가 명확합니다. Kimi K2.6은 7승 1무 0패, 매치 포인트 22점·누적 77점으로 1위. GPT-5.5는 5승 1무 2패 16점으로 3위. Claude Opus 4.7은 4승 0무 4패 12점으로 5위, Gemini Pro 3.1은 3승 0무 5패 9점으로 6위였습니다. Kimi가 우세했던 이유는 단순합니다. 타일을 적극적으로 슬라이드하며 단어를 재구성한 반면, Claude와 다른 모델들은 타일을 거의 옮기지 않아 큰 격자에서 점수를 잃었습니다.

K2.6는 Moonshot AI에서 다운로드 가능한 오픈웨이트라 로컬에서도 돌릴 수 있습니다. 코딩 작업 전반에 일반화될지는 별개 문제지만, 적어도 공간적 추론과 적극적 액션이 필요한 영역에서 오픈 모델이 프런티어 모델을 따라잡았다는 신호로 읽힙니다.

원본: https://thinkpol.ca/2026/04/30/an-open-weights-chinese-model-just-beat-claude-gpt-5-5-and-gemini-in-a-programming-challenge/

memtrace — Claude Code의 stale context 문제를 푸는 라이브 지식 그래프

긴 코딩 세션에서 Claude Code 에이전트가 같은 파일을 12번씩 다시 읽거나, 의존성을 모르고 블라인드 리팩터를 치는 문제가 자주 발생합니다. memtrace는 이 문제를 해결하기 위해 코드베이스 위에 라이브 지식 그래프를 만들어두고 에이전트가 밀리초 단위로 쿼리할 수 있게 합니다.

핵심은 bi-temporal memory입니다. 모든 심볼이 자기 버전 히스토리를 기억하고 있어, 여섯 가지 시간 기반 스코어링 알고리즘이 서로 다른 질문에 답합니다. "무엇이 바뀌었나"(compound scoring), "무엇이 깨졌나"(blast radius 기반 임팩트), "무엇이 예상 밖인가"(이상 감지), "사고 발생 시점 근처에서 무엇이 바뀌었나"(time decay). 결과적으로 에이전트가 "무엇이 무엇에 의존하고, 언제 무엇이 바뀌었는지"를 정확히 알 수 있게 됩니다.

설치는 `npm install -g memtrace` 한 줄로 바이너리, 17개 스킬, MCP 서버 설정이 자동으로 들어갑니다. Claude Code, Claude Desktop, 다른 지원 에디터에서 25개+ MCP 도구를 통해 검색·관계 분석·임팩트 감지·시간 쿼리를 노출합니다. 라이선스는 사유(EULA) — 프라이빗 베타 기간과 출시 후 개인 개발자에게는 무료입니다. 인덱서와 DB는 클로즈드 소스.

원본: https://github.com/syncable-dev/memtrace-public

AGENTS.md 한 줄로 Codex 비용을 줄이는 실전 트릭

r/codex에서 화제가 된 패턴은 단순합니다. 프로젝트 루트에 `AGENTS.md` 파일을 두고, 그 안에서 작업 종류별로 어떤 모델이 처리해야 하는지 명시적으로 분기시키는 방식입니다. 이렇게 하면 GPT-5.5 xhigh 같은 프리미엄 티어가 파일 이름 변경, 포매팅, CSV 파싱 같은 mechanical 작업에 호출되어 토큰을 낭비하는 일이 줄어듭니다.

핵심은 Codex가 진입할 때 AGENTS.md를 가장 먼저 참조한다는 점입니다. 여기에 "rename, format, simple parse 같은 작업은 작은 모델로 라우팅" 같은 한 줄 룰만 박아도 작업 분류 자체가 바뀝니다. 동일 패턴은 Claude Code의 CLAUDE.md, Cursor의 .cursorrules에도 적용 가능합니다. 정액제가 아닌 호출당 과금 환경에서는 절감 효과가 즉시 나타납니다.

루트 디렉토리에 한 파일만 추가해서 단가가 큰 작업과 작은 작업을 분리하는 패턴은 코딩 에이전트를 일상적으로 쓰는 모든 팀에 권장할 만합니다. 리뷰·계획·복잡 디버깅은 큰 모델, 정리·변환·반복 작업은 작은 모델로 보내는 라우팅 룰을 한 번 정해두면 됩니다.

원본: https://reddit.com/r/codex/comments/1t3ffxe/agentsmd_trick_that_stopped_codex_from_doing_dumb/

Underdrawings — AI 이미지 속 텍스트·숫자를 정확히 그리는 두 단계 기법

AI 이미지 생성 모델은 글자가 들어간 그림에서 항상 무너집니다. "멀리서 보면 그럴듯한데 읽기 시작하면 깨지는" 문제죠. samcollins.blog가 공유한 underdrawing 기법은 이 문제를 두 단계로 해결합니다.

1단계는 SVG 또는 코드로 텍스트와 숫자를 정확한 위치에 그린 베이스 이미지를 만듭니다. 수학적으로 정확한 좌표·번호를 가진 결정론적 레이어입니다. 2단계는 그 베이스를 멀티모달 모델(Gemini 3.0 Pro)에 넣어 스타일 변환만 시킵니다. 모델은 텍스트 자체를 새로 그리지 않고 underdrawing의 위치와 숫자를 유지한 채 표면 스타일만 입힙니다.

저자가 보여준 예시는 50개의 번호 매겨진 디딤돌이 나선형으로 배치된 그림이었습니다. Gemini 3 Pro와 ChatGPT-Images-2 모두 일반 프롬프트로는 50개 숫자를 정확히 그리지 못했지만, 같은 모델에 SVG underdrawing을 입력으로 주자 모든 50개 번호가 정확히 위치한 "claymation 디오라마 초콜릿"이 나왔습니다. 게임 보드, 교육 자료, 번호 다이어그램, 시각 내러티브처럼 정확성과 스타일을 동시에 요구하는 작업에 그대로 적용 가능합니다.

원본: https://samcollins.blog/underdrawings/

---

오늘의 AI 뉴스 큐레이션은 나무숲(treesoop)이 매일 운영하는 매일 AI News 카카오톡 오픈채팅에서도 매일 아침 발송됩니다. AI 자동화·바이브 코딩·에이전트 워크플로우 도입을 고민 중이시라면 나무숲에 문의주세요.