2026년 4월 19일 AI 뉴스 — Thunderbolt, Omi, Claude Code effort
Mozilla Thunderbird의 오픈소스 AI 클라이언트 Thunderbolt, 30만 사용자 돌파한 AI 웨어러블 Omi, Claude Code effort 레벨의 실제 동작, Opus 4.7 이후 Claude Code 악화 비판 등 오늘의 AI 개발자 뉴스 8개.
오늘 AI 개발자 업계에서 주목받은 8개 소식을 정리했다. Mozilla가 Thunderbird 팀을 통해 자체 AI 클라이언트 Thunderbolt를 공개했고, BasedHardware의 AI 웨어러블 Omi는 30만 명 넘는 사용자를 돌파했다. Claude Code의 effort 레벨이 실제로 무엇을 제어하는지와 Opus 4.7 이후 악화되고 있다는 비판까지 — 매일 AI를 쓰는 개발자에게 실질적으로 필요한 이야기만 골랐다.
1. Mozilla가 만든 오픈소스 AI 클라이언트 Thunderbolt
Thunderbird 팀이 Thunderbolt라는 새 AI 클라이언트 프로젝트를 GitHub에 공개했다. "Choose your models. Own your data. Eliminate vendor lock-in"을 내세우며 웹·iOS·Android·Mac·Linux·Windows 전 플랫폼을 지원한다. Frontier 모델뿐 아니라 Ollama 같은 로컬 추론 엔진, 온프레미스 배포까지 포함한다.
OpenAI-compatible 프로바이더면 어느 것이든 연결할 수 있고 Docker·Kubernetes로 자체 호스팅도 가능하다. 현재 적극 개발·보안 감사 중이며 향후 완전 오프라인 모드를 목표로 한다. 엔터프라이즈 고객이 온프레미스로 돌리고 싶어하는 수요를 잡으려는 포지션이다.
원본: https://github.com/thunderbird/thunderbolt
2. AI 웨어러블 Omi, 30만 사용자 돌파한 오픈소스 프로젝트
BasedHardware의 Omi가 GitHub 트렌드에 올라왔다. 화면과 대화를 캡처해 실시간 음성 인식·요약·액션 아이템을 생성하는 AI 시스템이다. 데스크톱, 모바일뿐 아니라 목걸이형 웨어러블과 스마트 글래스 같은 전용 하드웨어까지 완성해 들은 것과 본 것을 전부 기억하는 AI 메모리를 구현한다.
펌웨어부터 백엔드, 클라이언트 앱까지 전체 스택을 오픈소스로 공개해 상업 이용과 개발자 커스터마이징이 모두 가능하다. 300,000명 이상의 전문가가 이미 사용 중이며 SDK와 API도 제공된다. 온디바이스 처리와 연속 기록이라는 AI 웨어러블의 두 축을 오픈소스로 접근 가능하게 만든 실험이다.
원본: https://github.com/BasedHardware/omi
3. Smol machines — 서브초 부팅으로 AI 에이전트 샌드박싱
smolvm은 Rust로 만든 경량 VM CLI 도구다. Linux VM을 서브초 이내에 부팅하며 메모리를 탄력적으로 사용한다. macOS에서는 Hypervisor.framework, Linux에서는 KVM을 써서 하드웨어 수준의 격리를 제공한다.
핵심은 AI 에이전트가 만들어낸 코드를 안전하게 실행할 수 있다는 점이다. OCI 이미지 호환, SSH agent forwarding, 네트워크 접근 제어를 지원하고 실행 중인 VM을 단일 .smolmachine 파일로 직렬화해 크로스 플랫폼으로 옮길 수 있다. Docker 데몬 없이 TOML 설정만으로 재현 가능한 격리 환경이 만들어져 자동화 워크플로우에 바로 쓰기 좋다.
원본: https://github.com/smol-machines/smolvm
4. 브라우저에서 돌아가는 1비트 LLM, Bonsai WebGPU
webml-community가 Bonsai를 Hugging Face Spaces에 공개했다. 1비트로 양자화된 언어 모델을 WebGPU로 브라우저 안에서 바로 돌린다. 서버 없이 클라이언트 하드웨어만으로 추론이 완결된다.
극단적 양자화로 용량과 연산량을 줄여 데스크톱뿐 아니라 저사양 기기에서도 LLM이 동작하도록 설계됐다. API 키도 서버도 필요 없이 접속만 하면 모델이 로컬에서 실행된다. 웹 기반 AI 애플리케이션이 API 호출 비용 없이 확장될 수 있는 가능성을 보여주는 데모다.
원본: https://huggingface.co/spaces/webml-community/bonsai-webgpu
5. FireRed Image Edit 1.0 Fast — 빠른 AI 이미지 편집
prithivMLmods가 FireRed Image Edit의 속도 최적화 버전을 Hugging Face Spaces에 공개했다. 텍스트 프롬프트로 이미지를 편집할 수 있는 모델인데 Fast 변형은 처리 속도를 최우선으로 튜닝했다. Zero tier 인프라에서 돌아가며 912 좋아요를 기록 중이다.
세팅 없이 Spaces 페이지에서 바로 사용할 수 있고 커뮤니티 토론도 활발하다. 이미지 편집에 필요한 응답 대기 시간을 짧게 가져가야 하는 제품 팀이나 AI 콘텐츠 워크플로우에 프로토타이핑 용도로 적합하다.
원본: https://huggingface.co/spaces/prithivMLmods/FireRed-Image-Edit-1.0-Fast
6. Google Gemma 4를 브라우저에서 로컬 실행하는 Gemma Gem
Gemma Gem은 Chrome 확장 프로그램 형태로 Google의 Gemma 4를 WebGPU 기반으로 브라우저에서 직접 실행한다. API 키도 클라우드 서비스도 필요 없이 모든 추론이 사용자 기기에서 일어난다.
AI 어시스턴트로서 웹 페이지를 읽고 페이지 요소와 상호작용하며 사이트 콘텐츠에 대한 질문에 답한다. 모든 처리가 로컬에서 이루어져 데이터가 기기를 떠나지 않는 프라이버시 퍼스트 접근이 핵심이다. 기업 데이터나 민감 정보를 다루는 팀이 사내 브라우저에 AI 도우미를 심기 좋은 형태다.
원본: https://github.com/kessler/gemma-gem
7. Claude Code effort 레벨의 실제 동작 — Low/Medium/High/xHigh/Max
Claude Code 커뮤니티에서 effort 레벨이 실제로 무엇을 제어하는지 정리한 글이 올라왔다. 레벨은 4개가 아니라 5개(low/medium/high/xhigh/max)이며 토큰 예산이 아닌 행동 신호다. 낮은 레벨이라도 어려운 문제에서는 여전히 thinking을 수행하지만 분량이 줄어든다.
네 가지가 동시에 조정된다: thinking 깊이, 도구 호출 적극성, 응답 길이, 자율 진행 의지. Sonnet 4.6 기본은 high, Opus 4.7 기본은 xhigh지만 Pro/Max 플랜의 Claude Code는 3월부터 기본이 medium으로 조용히 내려갔다. 모르고 쓰는 사람이 많다. 핵심 팁은 Max로 해결 안 되는 문제의 80%는 context 품질 문제라는 것 — 좋은 CLAUDE.md와 명확한 계획이 모델 effort보다 더 중요하다는 지적이다.
원본: https://reddit.com/r/ClaudeCode/comments/1soqwfl/claude_code_effort_levels_explained_what/
8. Claude Coding Vibes가 나빠지고 있다 — Opus 4.7 이후의 비판
Matthew Brunelle가 블로그에서 Anthropic의 최근 변경이 Claude Code 경험을 악화시키고 있다고 주장했다. 구체적으로 컨텍스트 클리어 옵션 제거, 3자 토큰 사용 제한, 캐시 TTL 1시간에서 5분으로 단축, Opus 4.7의 extended thinking 예산 삭제를 꼽았다.
이 변화들이 모두 용량 부족에 따른 조치로 프레이밍되지만 사용자에게는 적대적으로 느껴진다는 지적이다. 필자는 이 흐름을 받아들이는 대신 OpenCode 같은 오픈소스 하네스와 다른 LLM 조합을 탐색할 때라고 제안한다. 앞으로 오픈 모델과 오픈 하네스가 따라잡을 것이며 그쪽은 같은 식의 품질 저하에 시달리지 않으리라는 전망이다.
원본: https://blog.matthewbrunelle.com/the-claude-coding-vibes-are-getting-worse/
---
매일 AI 뉴스는 나무숲(TreeSoop)이 AI 관련 수십 개 소스에서 자동 수집·큐레이션한다. 더 많은 소식과 과거 뉴스는 나무숲 블로그에서 확인할 수 있다.