2026년 4월 29일 AI 뉴스 — OpenAI Bedrock·Warp 오픈소스·Claude+Blender 연동
OpenAI 모델 Amazon Bedrock 입성, Warp 터미널 전면 오픈소스화, Claude의 Blender·Adobe 등 9개 크리에이티브 툴 MCP 커넥터, Claude.ai 1시간 18분 장애까지 4월 29일 AI 뉴스 8선.
오늘은 OpenAI 모델이 Amazon Bedrock에 들어가는 사상 최대 클라우드 합의, Warp 터미널의 전격 오픈소스화, 그리고 Claude가 Blender·Adobe 등 9개 크리에이티브 툴과 직접 연동되는 굵직한 소식이 이어졌다. AI 개발자가 챙길 만한 8가지를 정리한다.
OpenAI 모델, Amazon Bedrock에 정식 입성
Anthropic-Amazon 동맹 발표 며칠 만에 OpenAI 모델까지 AWS Bedrock에 들어왔다. 4월 28일 공개된 Stratechery 인터뷰에서 Sam Altman과 AWS CEO Matt Garman은 새로 출시된 Bedrock Managed Agents 위에 OpenAI 프론티어 모델을 패키지로 얹었다고 밝혔다. AWS의 에이전트 런타임이 신원 관리, 권한, 로깅, 거버넌스를 모두 제공하고 고객 데이터는 AWS VPC 안에서만 움직인다.
이번 합의의 핵심은 Microsoft-OpenAI 계약 수정이다. Microsoft의 OpenAI 라이선스가 비독점으로 바뀌었고 매출 분배도 종료됐다. Azure는 여전히 OpenAI의 1순위 파트너이고 신모델 우선 액세스도 유지되지만, OpenAI는 이제 다른 클라우드에서도 자사 제품을 직접 서비스할 수 있다. 인프라는 GPU와 AWS Trainium 칩을 혼합해 쓰며 시간이 갈수록 Trainium 비중이 커진다.
원본Warp 터미널, AGPL/MIT 듀얼 라이선스로 전면 오픈소스화
에이전틱 개발 환경 Warp가 코드베이스 전체를 GitHub에 공개했다. AGPL-3.0과 MIT 듀얼 라이선스로 공개된 저장소는 며칠 만에 31.5k 스타를 받았고, 코드의 98%는 Rust로 작성됐다. Warp는 단순한 터미널이 아니라 내장 코딩 에이전트와 외부 CLI 에이전트(Claude Code, Codex, Gemini CLI)를 모두 호스팅하는 환경으로 자리잡고 있다.
특이한 점은 OpenAI가 창립 스폰서로 참여한다는 점이다. 에이전틱 워크플로우 기본 모델로 GPT를 쓰며, 메인테이너는 이슈에 `ready-to-spec`이나 `ready-to-implement` 라벨을 붙여 외부 기여자가 어디서부터 손을 댈 수 있는지 명시한다. 자체 터미널을 들고 다니던 개발자들에게는 큰 변곡점이다.
원본Claude, Blender·Adobe·Ableton 등 9개 크리에이티브 툴과 연동
4월 28일 Anthropic은 9개의 크리에이티브 툴 커넥터를 한꺼번에 풀었다. Blender, Autodesk, Adobe, Ableton, Splice 등이 포함된다. 가장 눈에 띄는 점은 Blender의 공식 MCP 커넥터를 Blender 개발팀이 직접 구현했다는 사실이다. Anthropic은 동시에 Blender Development Fund 후원사로 합류했다.
이 커넥터를 통해 Claude는 텍스트 프롬프트만으로 3D 모델을 생성·수정하고, 전체 씬을 분석·디버깅하며, 커스텀 스크립트로 일괄 변경을 적용하고, Blender의 Python API를 통해 UI에 새 툴까지 추가할 수 있다. MCP 표준이라 Claude뿐 아니라 다른 LLM도 같은 커넥터로 Blender에 붙을 수 있다는 점이 본질이다.
원본Microsoft VibeVoice — 음성 AI 풀스택 오픈소스 공개
Microsoft가 음성 AI 프레임워크 VibeVoice를 MIT 라이선스로 공개했다. 44.7k 스타로 빠르게 이슈를 모은 이 프로젝트는 ASR·TTS·Realtime 세 가지 모델을 모두 포함한다. ASR(7B)은 60분 분량 오디오를 한 번에 처리하면서 화자 식별과 타임스탬프를 동시에 뽑고, TTS(1.5B)는 4명 화자까지 90분 분량 음성을 다국어로 생성하며, Realtime(0.5B)은 약 300ms 레이턴시로 스트리밍 합성한다.
내부적으로는 7.5Hz 프레임 레이트의 연속 스피치 토크나이저와 next-token diffusion 프레임워크를 결합했다. ASR 모델은 Hugging Face Transformers에 바로 통합된다. 음성 에이전트나 다이얼로그 시스템을 만들려는 팀에게는 검증된 오픈소스 베이스가 생긴 셈이다.
원본Claude.ai, 4월 28일 약 1시간 18분 장애
Anthropic이 4월 28일 17:34~18:52 UTC 사이 광범위한 장애를 겪었다. Claude.ai, Claude Console, Claude API, Claude Code, Claude Cowork, Claude for Government까지 거의 모든 서비스가 영향을 받았다. 17:41에 조사 시작, 17:51에 원인 식별, 18:59에 복구 확인, 19:15에 상태가 Resolved로 바뀌었다.
이번 주 들어 Claude Code Pro 플랜 정책 혼선까지 겹친 상태에서 발생한 장애라 커뮤니티 반응은 더 예민했다. 프로덕션에서 Claude API에 의존하는 팀이라면 멀티 프로바이더 폴백 또는 큐 기반 재시도 전략을 다시 점검할 시점이다.
원본Talkie — 1930년 이전 텍스트로만 학습한 13B "빈티지" LLM
Nick Levine, David Duvenaud, Alec Radford 팀이 Anthropic 지원으로 13B 파라미터 LLM Talkie를 공개했다. 핵심 아이디어는 학습 데이터를 1930년 12월 31일 이전에 출판된 책·신문·저널·특허·법률 문서로만 한정한 것이다. 학습 토큰은 260B에 달하며, 알려진 빈티지 LM 중 최대 규모다.
흥미로운 결과 하나: 디지털 컴퓨터에 대한 사전 지식이 전혀 없는 모델이 in-context 예시만으로 간단한 Python 코드를 익혔다. 학습 데이터에 절대 들어갈 수 없는 미래 사건과 현대 개념에 대해 모델이 어떻게 일반화하고 예측하는지를 오염 없이 실험할 수 있는 베이스가 만들어졌다.
원본GitHub Copilot 코드 리뷰, 6월부터 Actions 분 차감 시작
GitHub가 6월 1일부터 Copilot 코드 리뷰의 과금 모델을 바꾼다. 기존 AI Credits 차감에 더해 프라이빗 저장소에서는 조직의 GitHub Actions 분 한도까지 같이 소비된다. 퍼블릭 저장소는 영향이 없고, 자체 호스팅 러너와 대형 러너는 별도 요율로 청구된다.
대상은 Copilot Pro, Pro+, Business, Enterprise 전 플랜이며, 라이선스 없는 사용자가 직접 청구로 리뷰를 돌려도 똑같이 적용된다. Copilot 리뷰가 더 많은 저장소 컨텍스트를 끌어오는 에이전틱 툴 콜링 구조로 바뀌면서 컴퓨트 비용 자체가 늘어난 게 배경이다. 6월 전에 Actions 사용량과 예산 알림을 다시 확인해두는 게 안전하다.
원본"Claude Code가 짠 코드는 누구 소유인가" — 저작권·고용 계약 정리
Legal Layer 뉴스레터가 AI 생성 코드의 소유권 문제를 정면으로 다뤘다. 핵심은 미국 저작권 사무소와 법원이 일관되게 유지하는 입장 — "의미 있는 인간 저작자성"이 없으면 저작권 보호를 받지 못하고, 경쟁사가 그대로 복제해도 막을 수 없다는 점이다. 단순 프롬프팅이 아니라 아키텍처 선택, 출력 거부·재구조화 같은 창작 방향성이 있어야 한다.
회사 업무에서는 IP 양도 조항과 work-for-hire 원칙이 작동해 AI 보조 코드도 회사 소유가 되며, 광범위한 조항은 회사 라이선스 도구로 만든 사이드 프로젝트까지 가져갈 수 있다. 또 공개 코드로 학습된 모델이 GPL 패턴을 그대로 재현해 카피레프트 오염을 일으킬 수 있는데 FOSSA·Snyk·Black Duck이 탐지해낸다. 커밋 메시지·프롬프트 로그로 인간 기여를 문서화해두는 것이 권고사항이다.
원본---
매일 아침 AI 뉴스를 빠르게 챙기고 싶다면 나무숲에서 큐레이션한 이슈를 확인해보자. AI-native 개발자에게 진짜 필요한 소식만 골라 매일 정리한다.