2026년 4월 28일 AI 뉴스 — Claude Opus 4.7 출시, Anthropic-Amazon 1000억 달러 컴퓨트 동맹
Claude Opus 4.7 출시와 Anthropic-Amazon 5GW 컴퓨트 동맹, Claude Code 품질 저하 포스트모템, GPT-5.5 vs Opus 4.7 벤치마크 비교 등 오늘의 AI 뉴스 8선.
오늘은 Claude Opus 4.7 출시와 Anthropic-Amazon의 사상 최대 규모 컴퓨트 계약, 그리고 Claude Code 품질 저하 사태에 대한 Anthropic 공식 포스트모템까지 굵직한 소식이 한꺼번에 나왔다. 한 주를 시작하는 자리에서 챙길 만한 8가지를 정리한다.
Claude Opus 4.7 출시 — 코딩 성능 대폭 강화
Anthropic이 새 플래그십 모델 Claude Opus 4.7을 공개했다. 복잡하고 장시간 실행되는 코딩 작업에서 일관성과 깊이를 모두 끌어올린 것이 가장 큰 변화다. 한 사용자는 자체 93개 코딩 벤치마크 기준으로 13% 성능 향상을 보고했다.
비전 모델도 크게 개선됐다. 이미지 처리 해상도가 장변 기준 2,576픽셀까지 늘어나 이전 대비 3배 이상 커졌고, 빽빽한 스크린샷이나 복잡한 다이어그램을 그대로 분석할 수 있다. 지시문도 훨씬 글자 그대로 따르기 때문에 기존 프롬프트는 새로 손질해야 할 가능성이 높다.
가격은 입력 100만 토큰당 5달러, 출력 100만 토큰당 25달러로 4.6과 동일하게 유지된다. 다만 토크나이저가 새로 바뀌어 같은 입력에 1.0~1.35배 더 많은 토큰이 소비될 수 있다. Claude API, Bedrock, Vertex AI, Microsoft Foundry에서 모두 사용할 수 있다.
원본Anthropic-Amazon, 5GW·1000억 달러 규모 컴퓨트 동맹
Anthropic이 Amazon과 향후 10년간 최대 5기가와트의 컴퓨트 용량을 확보하는 대규모 파트너십을 발표했다. Anthropic은 AWS에 1000억 달러 이상을 투자하고, Amazon은 즉시 50억 달러를 투자하면서 추가로 200억 달러까지 추가 투자할 수 있는 옵션을 잡았다. 기존 80억 달러 투자에 더해진 금액이다.
인프라는 Trainium2와 Trainium3를 핵심 축으로 한다. 2026년 2분기에 대규모 Trainium2 용량이 가동을 시작하고, 연말까지는 Trainium2와 Trainium3를 합쳐 1기가와트에 가까운 용량이 추가된다. Graviton부터 Trainium4까지 모든 Amazon 자체 칩이 동원된다.
Anthropic의 연 환산 매출은 이미 300억 달러를 넘어섰다. 2025년 말 90억 달러였던 점을 고려하면 1년도 안 되는 사이 3배 이상 폭발한 셈이다. 이번 계약은 폭주하는 수요를 감당하면서 아시아·유럽으로 추론 용량을 넓히기 위한 포석이다.
원본Claude Design — Anthropic Labs의 디자인 협업 도구
Anthropic Labs가 새 제품 Claude Design을 공개했다. Opus 4.7 비전 모델을 기반으로 디자인, 프로토타입, 프레젠테이션, 마케팅 자료를 대화형으로 만들 수 있다. 디자이너가 아닌 사람도 시각 자료를 만들어내기 위한 도구로 자리잡으려는 시도다.
가장 눈에 띄는 기능은 디자인 시스템 자동 통합이다. Claude가 팀의 코드베이스와 디자인 파일을 직접 읽어 브랜드 컬러, 타이포그래피, 컴포넌트를 자동 적용한다. 텍스트 설명, DOCX·PPTX·XLSX 같은 문서, 자사 웹사이트의 요소를 그대로 가져와 시작점으로 쓸 수 있다.
결과물은 HTML, PDF, PPTX로 내보내거나 Canva로 보낼 수 있고, 그대로 Claude Code에 넘겨 구현 단계로 이어갈 수도 있다. Claude Pro, Max, Team, Enterprise 구독에 모두 포함된다.
원본Claude Code 품질 저하 사태 공식 포스트모템
지난 한 달간 Claude Code 품질이 떨어졌다는 사용자 보고가 누적되자, Anthropic이 4월 23일 공식 포스트모템을 공개했다. 원인은 세 가지로 정리됐다. 의도적이지만 평가가 좋지 않았던 추론 강도 하향 조정, 세션 캐싱 버그로 인한 반복 행동과 메모리 손실, 그리고 길이를 줄이려다 코딩 품질에 역효과를 낸 시스템 프롬프트 변경이다.
가장 결정적이었던 변화는 4월 16일 추가된 시스템 프롬프트 지침이었다. 도구 호출 사이 텍스트는 25단어, 최종 응답은 100단어 이내로 제한하라는 명령이 들어가면서 Opus 4.7의 코딩 평가 점수가 3% 떨어졌다. 여기에 한 번만 적용돼야 할 캐시 변경이 세션 내내 매 턴마다 적용되는 버그가 겹쳐 모델이 잊어버린 듯 반복적으로 보였다.
문제의 변경은 4월 20일 v2.1.116 릴리스로 모두 되돌려졌고, 4월 23일에는 모든 구독자의 사용량 한도까지 리셋됐다. AI 시스템 프롬프트 한 줄이 모델 성능에 어떤 영향을 줄 수 있는지 보여주는 사례로 남게 됐다.
원본GPT-5.5 vs Opus 4.7 — 코딩 vs 에이전트, 갈리는 강점
OpenAI가 4월 23일 공개한 GPT-5.5와 Opus 4.7의 벤치마크 비교가 빠르게 정리되고 있다. 코딩 벤치마크인 SWE-bench Pro, SWE-bench Verified, CursorBench, GPQA Diamond는 Opus 4.7이 우세하다. 반면 Terminal-Bench, GDPval, OSWorld, Tau2-bench 같은 에이전트·지식 작업 벤치마크는 GPT-5.5가 더 높은 점수를 기록한다. 특히 Terminal-Bench 2.0에서 GPT-5.5는 82.7%, Opus 4.7은 69.4%로 격차가 크다.
토큰 효율도 큰 차이를 보인다. 같은 코딩 작업에서 GPT-5.5는 Opus 4.7 대비 약 72% 더 적은 출력 토큰을 만들어낸다. 가격은 Opus 4.7이 입출력 5달러/25달러, GPT-5.5가 5달러/30달러로 출력만 보면 GPT-5.5가 약간 비싸지만, 토큰 수가 적어 실제 비용은 작업에 따라 역전될 수 있다.
조직 전반에 모델을 까는 흐름도 흥미롭다. OpenAI는 Codex와 GPT-5.5를 엔지니어링뿐 아니라 재무, 커뮤니케이션, 마케팅, 데이터 사이언스, 제품 매니지먼트 등 사내 85% 이상이 매주 사용하고 있다고 밝혔다. 단순 코딩 도구를 넘어 업무 전반의 표준 도구로 자리잡고 있다는 신호다.
원본"끝낼 수 없던 사이드 프로젝트, AI로 되살려도 괜찮다"
Matthew Brunelle이 Claude Code로 묻혀 있던 사이드 프로젝트를 끝낸 경험을 공유했다. 그가 만든 Sub-standard는 YouTube Music을 OpenSubsonic 클라이언트(Feishin, Navidrome)에서 쓸 수 있게 해주는 어댑터다. 메타데이터는 ytmusicapi, 스트리밍은 yt-dlp가 담당한다.
핵심은 처음에 제약을 명확히 잡은 것이다. API 명세, 의존성, 코딩 컨벤션, 도큐스트링 요구 사항을 모두 사전에 제공한 뒤 Claude Code에 작업을 맡겼다. 이 덕에 기본 스트리밍은 하루 저녁 만에 동작했고, 캐싱과 SQLite 저장, 브라우징 엔드포인트까지 채워 실사용 가능한 수준으로 끌어올렸다.
저자는 학습 목적의 프로젝트와 "원할 뿐이지 직접 짤 시간은 없는" 프로젝트를 구분해야 한다고 본다. 후자는 어차피 끝내지 않을 가능성이 높으니 AI에 맡겨 결과물을 얻는 편이 낫다는 입장이다. 다만 진짜 실력을 키우고 싶은 영역에서는 직접 손을 쓰는 노력을 함께 가져가야 한다고 덧붙인다.
원본Bonsai Ternary WebGPU — 브라우저에서 도는 3치 양자화 모델
Hugging Face Spaces에 webml-community가 올린 Bonsai Ternary WebGPU 데모가 화제다. 이름 그대로 ternary 양자화(가중치를 -1, 0, 1 세 값으로만 표현)를 적용한 Bonsai 모델을 WebGPU로 브라우저에서 직접 추론한다. 별도 서버 호출 없이 사용자의 GPU에서 모델이 돌아간다.
3치 양자화는 모델 크기를 극단적으로 줄이는 대신 정확도 손실이 큰 기법이지만, 브라우저나 엣지 디바이스에서 LLM을 굴려야 하는 환경에서는 매력적인 선택이다. WebGPU와 결합하면 별도 런타임 없이 표준 웹 API만으로 GPU 가속을 받을 수 있다.
이 데모는 데스크톱 모델을 브라우저로 가져오는 흐름이 어디까지 와 있는지 가늠하는 좋은 신호다. 프론트엔드에서 LLM을 직접 호스팅하려는 팀이라면 한 번쯤 돌려볼 만하다.
원본FireRed Image Edit 1.0 Fast — 무료로 쓸 수 있는 빠른 이미지 편집 모델
prithivMLmods가 공개한 FireRed Image Edit 1.0 Fast가 Hugging Face Spaces에서 1,030개 이상의 좋아요를 받으며 빠르게 인기를 얻고 있다. 이름 그대로 빠른 추론 속도에 초점을 맞춘 이미지 편집 모델이고, 무료 ZeroGPU 환경에서 누구나 즉시 시도해볼 수 있다.
최근 이미지 편집 모델은 응답 속도가 사용 경험을 결정한다. 한 장에 30초 이상 걸리면 디자인 워크플로에 끼워넣기 어렵다. FireRed Image Edit는 이런 부분을 정조준해 "충분히 빠르면서 결과도 쓸 만한" 수준을 노린다.
오픈소스 이미지 모델 생태계에서 Spaces 데모는 본 모델을 자체 인프라에 올리기 전 빠르게 품질을 가늠해보는 사실상 표준이 됐다. 이미지 편집 자동화를 검토 중이라면 후보 리스트에 한 번 넣어볼 만하다.
원본---
매일 아침 굵직한 AI 소식을 한국어 요약으로 받아보고 싶다면 나무숲 블로그에서 최신 글을 확인하거나, 매일 AI News 오픈채팅방에서 함께 받아보자. 더 깊은 AI 도입 상담은 나무숲 에이전틱 AI 서비스 페이지에서.