2026년 4월 21일 AI 뉴스 — NSA의 Anthropic 사용, Qwen3.6-Max 출시, Claude Desktop 보안 이슈
NSA가 Pentagon 블랙리스트에도 Anthropic Mythos를 사용 중이며, Alibaba가 Qwen3.6-Max-Preview로 6개 코딩 벤치마크 1위를 차지했다. Claude Desktop 보안 이슈도 살펴본다.
오늘은 NSA가 Pentagon 블랙리스트에도 Anthropic Mythos를 사용하는 사실이 폭로됐고, Alibaba는 Qwen3.6-Max-Preview로 6개 프로그래밍 벤치마크 1위를 차지했다. Claude Desktop이 사용자 모르게 브라우저 확장을 심는다는 보안 이슈도 함께 살펴본다.
NSA, Pentagon 블랙리스트에도 Anthropic Mythos 사용 중
Axios 단독 보도에 따르면 미국 국가안보국(NSA)이 국방부의 공급망 위협 지정에도 불구하고 Anthropic의 최신 모델 Mythos Preview를 사용하고 있다. 국방부는 지난 2월 Anthropic을 차단하고 자사 벤더들도 같은 조치를 취하도록 강제했지만, 사이버 보안 수요가 정치적 긴장을 압도하고 있다는 분석이다.
발단은 Anthropic이 자사 모델의 대량 감시와 자율 무기 활용에 제한을 두려 한 것이었다. 국방부가 이를 거부하면서 협상이 결렬됐고 블랙리스트로 이어졌다. 한편 다른 정부 기관들은 Mythos를 주로 자체 인프라의 취약점 스캔에 활용 중인 것으로 알려졌다.
Dario Amodei CEO는 최근 백악관 비서실장 Susie Wiles 및 재무장관 Scott Bessent와 만나 정부 내 Mythos 활용과 보안 정책을 논의했다. 차기 협상은 국방부 외 부처와의 관계 정립에 초점을 맞출 전망이다.
원본: https://www.axios.com/2026/04/19/nsa-anthropic-mythos-pentagon
Alibaba, Qwen3.6-Max-Preview 출시 — 6개 코딩 벤치마크 1위
Alibaba가 4월 20일 Qwen3.6-Max-Preview를 공개했다. 256k 토큰 컨텍스트, 텍스트 입출력 전용이며 OpenAI 및 Anthropic API 사양과 호환된다. Qwen Studio와 Alibaba Cloud Model Studio API에서 `qwen3.6-max-preview` 문자열로 호출 가능하다.
성능 면에서 SWE-benchPro, Terminal-Bench2.0, SkillsBench, QwenClawBench, QwenWebBench, SciCode 6개 프로그래밍 벤치마크에서 1위를 차지했다. 이전 Qwen3.6-Plus 대비 SkillsBench +9.9점, SciCode +10.8점, NL2Repo +5.0점, Terminal-Bench2.0 +3.8점 향상됐다.
세계 지식과 지시 수행 능력이 강화되어 에이전트 프로그래밍 시나리오에서의 활용이 두드러진다. OpenAI·Anthropic 호환이므로 기존 파이프라인에 최소 변경으로 끼워 넣을 수 있다.
원본: https://qwen.ai/blog?id=qwen3.6-max-preview
DeepSeek, LLM용 GPU 커널 라이브러리 DeepGEMM 공개
DeepSeek AI가 통합 CUDA 커널 라이브러리 DeepGEMM을 깃허브에 공개했다. FP8, FP4, BF16 GEMM 연산과 융합형 Mixture-of-Experts 계산을 지원하며 JIT 컴파일 방식이라 설치 시 CUDA 컴파일이 필요 없다.
SM90 및 SM100 아키텍처를 지원하고 DeepSeek v3.2 indexer용 MQA 스코어링 커널, 통신 오버랩된 Mega MoE 등 최신 기능이 추가됐다. 무거운 템플릿 의존성 없이 코드베이스가 깔끔해 GPU 최적화 학습용으로도 활용 가능하다.
전문가 튜닝 라이브러리에 견줄 성능을 내는 동시에 가독성 높은 구조를 제공한다는 점이 핵심이다. LLM 추론·학습 워크로드를 다루는 팀에 즉시 투입 가능한 옵션이다.
원본: https://github.com/deepseek-ai/DeepGEMM
Claude Desktop, 사용자 동의 없이 브라우저 확장 설치 — 보안 우려
Alexander Hanff 분석에 따르면 Claude Desktop이 Chrome, Brave, Edge, Arc, Vivaldi, Opera, Chromium 7개 Chromium 기반 브라우저에 Native Messaging manifest를 무단 설치한다. 사전 승인된 Claude 확장 ID 3개(`dihbgbndebgnbjfmelmegjepbnkhlgni` 등)가 사용자 권한으로 외부 헬퍼 바이너리를 호출할 수 있다.
확장은 로그인된 사이트에서 사용자 대신 행동하기 위한 세션 공유, DOM 상태 읽기, 폼 자동 채움, 데이터 추출 권한을 갖는다. 즉 사용자가 브라우저에 로그인된 모든 사이트의 인증 컨텍스트가 노출 가능 상태다.
가장 큰 문제는 manifest가 Claude Desktop 실행 때마다 자동 재설치되고, 사용자가 직접 끌 수 있는 가시적 해지 메커니즘이 없다는 점이다. Anthropic 자체 데이터 기준 프롬프트 인젝션 성공률이 11.2%이므로 공급망 공격 표면도 만만치 않다.
원본: https://www.thatprivacyguy.com/blog/anthropic-spyware/
Atlassian, 기본값으로 사용자 데이터 AI 학습에 활용
Atlassian이 2026년 8월 17일부터 Jira, Confluence 등 클라우드 제품에서 수집한 데이터를 Rovo와 Rovo Dev 등 AI 기능 학습에 사용한다고 발표했다. 설정 적용은 4월 16일부터 단계적으로 시작됐다.
플랜별 옵트아웃 구조가 다르다. Free·Standard 플랜은 인앱 데이터 수집이 기본 ON이며 옵트아웃 가능하고, 메타데이터 수집은 모든 플랜에서 기본 ON이지만 Enterprise만 끌 수 있다. Enterprise는 두 종류 모두 기본 OFF다.
수집된 데이터는 최대 7년간 보관되며 Rovo AI, Rovo Chat, 자동화 에이전트 학습에 사용된다. Jira·Confluence를 업무 인프라로 쓰는 팀이라면 이번 주 안에 관리자 콘솔에서 설정을 점검하는 것이 안전하다.
원본: https://letsdatascience.com/news/atlassian-enables-default-data-collection-to-train-ai-f71343d8
k2-fsa, HuggingFace에 통합 음성 처리 도구 OmniVoice 공개
음성 인식 툴킷 K2 개발팀(k2-fsa)이 HuggingFace Spaces에 OmniVoice를 공개했다. 630개 이상 좋아요를 받으며 빠르게 주목받는 중이며 Zero 등급(무료)에서 호스팅된다.
Agents 카테고리로 분류된 점에서 단순 음성 인식이 아닌 자동화 파이프라인을 결합한 처리를 지원하는 것으로 보인다. K2 ASR 엔진과 FSA(유한 상태 오토마타) 기반 디코딩이 백엔드로 결합되어 있다.
오픈소스로 공개되어 있어 음성 인터페이스를 검토 중인 개발자가 부담 없이 시험해볼 수 있다.
원본: https://huggingface.co/spaces/k2-fsa/OmniVoice
"AI 시대, 성장이 멈추는 개발자의 뇌에서 일어나는 일"
evan-moon의 글이 AI에 의존할수록 코드 판단 능력이 약화되는 역설을 뇌과학적으로 풀어냈다. 핵심은 "바람직한 어려움(Desirable Difficulties)" 원리로, 끙끙대며 처리한 것이 기억에 더 깊이 남는다는 학습 이론이다.
본래 절차 기억은 인지 단계 → 연합 단계 → 자동화 단계를 거쳐 형성되는데, AI가 구현을 대신해주면 이 사다리가 통째로 스킵된다. 직접 코드를 쓰는 동안 뇌의 여러 영역이 동시에 활성화돼 깊은 기억이 만들어지지만, AI 결과물을 읽기만 하면 이 과정이 사라진다.
해법으로 글쓴이는 "설계안을 먼저 만든 뒤 AI 결과물과 비교", "진지한 코드 리뷰", "직접 손으로 만져보는 시간"처럼 의도적으로 뇌에 부하를 거는 실천을 제안한다. AI를 도구로 쓰되, 인지 부하를 일부러 만들어내는 습관이 장기 성장에 핵심이라는 결론이다.
원본: https://evan-moon.github.io/2026/04/18/developers-who-stopped-growing-in-ai-era/
Claude Code & Codex 토큰 효율 끌어올리는 설정 가이드
stdy.blog가 Claude Code와 Codex 사용자가 즉시 적용 가능한 토큰 절약 팁을 정리했다. 가장 효과가 큰 것은 마일스톤마다 `/compact`를 선제적으로 실행해 깔끔한 요약으로 컨텍스트를 슬림하게 유지하는 방법이다.
세션을 하나의 긴 대화로 끌고 가기보다, 작업 단위로 나눠 새 세션을 시작하는 편이 비용·속도 모두 유리하다. 환경변수 `DISABLE_NON_ESSENTIAL_MODEL_CALLS=1`로 백그라운드 모델 호출을 차단할 수 있고, effort 파라미터를 낮추면 단순 작업 응답 속도와 비용이 즉시 떨어진다.
연결된 MCP 서버 수를 줄이고, 불필요한 명확화 루프를 만들지 않도록 프롬프트를 정확히 쓰는 것도 중요한 포인트다. 매일 Claude Code나 Codex로 작업하는 팀이라면 한 번 적용해 두면 월 토큰 비용에 즉시 반영된다.
원본: https://www.stdy.blog/increasing-token-efficiency-by-setting-adjustment-in-claude-and-codex/
---
오늘의 키워드는 정부 AI 도입 갈등, 중국발 모델 경쟁, 그리고 AI 시대 학습·운영 노하우다. 나무숲(treesoop.com)은 이런 흐름을 매일 정리해 드린다. AI 자동화나 에이전트 도입 상담이 필요하면 treesoop.com/services/agentic-ai에서 시작해 보자.