오늘의 요약

  • Arcee Trinity-Large-Thinking 오픈 웨이트 출시
  • Z.ai, GLM-5V-Turbo 비전 코딩 모델 발표
  • Claude Code 소스 유출로 DMCA 논란 확산
  • OpenAI, Codex 사용량 한도를 전 플랜 리셋
  • PrismML 1-bit Bonsai로 로컬 LLM 효율↑

Claude Code 소스 유출로 DMCA 논란 확산

2026년 4월 1일 수요일
#OpenAI#Codex#Anthropic

헤드라인: Claude Code 소스 유출로 DMCA 논란 확산

참고 링크: 544 Twitters AINews’ website AINews is now a section of Latent Space opt in/out

Anthropic의 Claude Code 소스 노출(유출) 이슈가 커뮤니티에서 빠르게 분석·재구성되며, “에이전트 하네스(harness) 설계가 경쟁력의 핵심”이라는 논쟁을 재점화했다. 유출 자체보다도, 제품이 느리거나 불안정하다는 운영(ops) 불만과 함께 경쟁 코딩 에이전트 시장에서의 체감 품질(UX)·신뢰성·툴링 차별화가 더 크게 부각됐다. 이후 광범위한 DMCA 시도와 정정/복구 과정이 공유되며, 법적 대응의 과잉 여부와 오픈소스 클론/대안의 확산이 추가 이슈로 이어졌다.


AI Twitter Recap

오픈 웨이트(open weights) 추론·비전-코딩(vision-coding) 출시: Arcee Trinity-Large-Thinking, Z.ai GLM-5V-Turbo, Falcon Perception, Holo3

  • Arcee’s Trinity-Large-Thinking: 이 묶음에서 가장 실질적인 모델 출시로, Arcee’s Trinity-Large-Thinking은 **Apache 2.0 하의 오픈 웨이트(open weights)**로 공개되었고, 자체 시스템을 검사·호스팅·증류(distill)·사후학습(post-train)하려는 개발자/엔터프라이즈를 명시적으로 겨냥했다. 후속 게시물들은 에이전트(agentic) 성능이 강하다고 주장하며 Opus 4.6 뒤 PinchBench #2, Tau2-Airline SOTA, 프런티어급 텔레콤 결과 등을 언급했다 (Arcee, Mark McQuade). OpenRouter는 이를 총 400B / 활성(active) 13B 모델로 소개하고 즉시 제공했다 (OpenRouter). 여러 생태계 파트너는 “American open source”의 이정표로 의미를 부여했으며 Prime Intellect, Datology 등이 언급됐다. 인프라 지지자들은 소규모 팀이 400B급 모델을 프로덕션 비용 지점에서 서빙했다는 점을 강조했다 (latkins, willccbb, xlr8harder, natolambert).
  • Z.ai’s GLM-5V-Turbo: Z.ai introduced GLM-5V-Turbo비전 코딩(vision coding) 모델로, 이미지·비디오·문서 레이아웃·디자인 드래프트를 네이티브로 다루면서도 순수 텍스트 코딩 성능을 유지한다고 소개됐다. 회사는 성능 향상을 네이티브 멀티모달 퓨전(native multimodal fusion), 차세대 CogViT 인코더, 30+ task 협업 RL, 합성 에이전트 데이터 생성, 검색/그리기/웹 리딩을 위한 멀티모달 툴체인 확장 덕분이라고 설명했다 (details, text-coding stability). 이후 TRAE, Tabbit, Vision Arena 등 다수의 다운스트림 표면에 빠르게 통합됐다.
  • Falcon Perception and OCR: TII는 Falcon Perception을 공개했는데, 이는 오픈 보캐뷸러리(open-vocabulary) referring expression segmentation 모델이며, 3–10배 큰 모델과 경쟁력 있다고 주장되는 0.3B OCR 모델도 함께 소개됐다. 주목할 설계 포인트로는 멀티스테이지 파이프라인 및 레이트 퓨전(late fusion)에 의존하는 대신, 첫 레이어부터 이미지와 텍스트를 섞는 early-fusion transformer를 들었다.
  • Other model notes: H Company’s Holo3은 GUI 내비게이션 모델 패밀리(A3B/35B, Qwen3.5 기반, 무료 라이선스, Transformers 지원)로 강조됐다. 별도의 게시물은 Claude 4.6 Opus reasoning traces로 학습한 Qwen3.5 27B distill을 칭찬하며 SWE-bench에서 Claude Sonnet 4.5를 이김, 96.91% HumanEval, 더 낮은 CoT(Chain-of-Thought) 장황함, 4-bit 로컬 사용성, 300k+ HF downloads 등을 주장했다 (Craig Hewitt).

Claude Code 유출, 운영 이슈, 그리고 경쟁 코딩-에이전트 시장

  • What the leak exposed: 여러 게시물이 Anthropic의 Claude Code 소스 노출(유출) 분석으로 수렴했다. 가장 유용한 기술적 종합은 ZhihuFrontier의 긴 스레드로, 핵심 에이전트 코어가 단일 while(true) 루프처럼 미니멀하며, 정교함은 컨텍스트 관리·툴링·제품 계측(instrumentation)으로 밀어 넣었다는 점을 강조한다. 유출 내용에는 4층 컨텍스트 압축 스택 (HISTORY_SNIP, Microcompact, CONTEXT_COLLAPSE, Autocompact), 스트리밍 + 병렬 툴 실행, 출력 길이 실패 시 무음 재시도, 상속 중심 추상화를 피한 40+ 툴 모듈형 아키텍처, feature flags프로덕션 ablations의 강한 활용 등이 포함된 것으로 전해졌다. 또 다른 요약은 task budget 관리, AFK 모드, “Penguin” fast mode, redirected reasoning 등 숨겨진 기능과 미완성 제품 훅(hook)을 지목했다 (ZhihuFrontier).
  • Operational pain mattered more than the leak for many users: 유출 논의와 함께, 해당일 Claude가 느리거나 신뢰성이 낮았다는 불만도 다수였다 (Teknium, andersonbcdefg). 커뮤니티 반응은 유출된 “pets” 및 UI 요소에도 집중했는데 (meowbooksj), 이는 오케스트레이션 패턴이 더 읽히게 되더라도 제품 완성도(polish)가 경쟁 우위의 일부임을 강화한다는 해석으로 이어졌다.
  • DMCA blowback: 2차 이슈는 Anthropic의 과도하게 넓은 repo 테이크다운 시도로 인한 역풍이었다. Theo는 유출 소스가 없었던 포크에 대해 DMCA가 들어갔다고 보고했고, 이어 테이크다운 자체가 DMCA 절차 위반이라고 주장했다 (post). 이후 trq212에서 커뮤니케이션 실수였다는 정정이 나왔고, repo가 복구됐으며 Theo는 철회 및 빠른 대응을 인정했다 (restored, official response).
  • Open-source clones and alternatives are gaining mindshare: 유출은 생태계 경쟁에도 불을 붙였다. Yuchen Jin은 유출된 Claude Code 포크가 하루 만에 110k+ GitHub stars를 기록했다고 언급했다. 동시에 여러 사용자는 Nous Hermes Agent가 OpenClaw나 Claude 파생 스택보다 배포/운영이 쉽다고 말했으며, 거의 설정이 없고 로컬 워크플로우가 낫다는 점을 자주 인용했다 (charliehinojosa, VadimStrizheus, Nous). 또한 프롬프트 조향(prompt steering)과 효율을 둘러싼 툴링 물결도 있었는데, 예를 들어 63% 출력 토큰 감소를 주장하는 “Universal CLAUDE.md”, 그리고 베이스라인 컨텍스트를 90% 줄이기 위한 점진적 공개(progressive disclosure)를 제안한 Google’s Agent Skills spec 등이 있다.

에이전트 시스템 연구: 메모리, 자기조직화, 조정 한계, 보안

  • Memory is becoming first-class infra: MemFactory는 메모리 증강 에이전트(memory-augmented agents)를 위한 통합 추론/학습 프레임워크를 제안하며 GRPO 네이티브 통합 및 베이스라인 대비 최대 14.8% 상대 향상을 보고했다. 별도로 BasetenKV cache를 8x 압축하면서도 **90%+ 사실 유지(factual retention)**를 유지한다는 7M 파라미터 perceiver를 소개하며 “경험에서 학습하는 모델”로 가는 경로로 제시했다. part_harry_는 더 나아가, 학습 단계마다 KV cache를 버리는 현재의 사전학습(pretraining)이 데이터 비효율적이라고 주장했다.
  • Do self-organizing agents beat hand-authored roles? DAIR summary25,000 tasks, 최대 256 agents 규모의 새로운 연구를 소개하며, 자기조직화(self-organized) 역할이 사전 정의된 planner/coder/reviewer 계층보다 낫다고 주장했다. 또한 sequential coordination protocol이 중앙집중 접근 대비 +14%, 5,000+ emergent roles, 오픈 모델이 더 낮은 비용으로 **클로즈드 모델 품질의 95%**에 도달했다는 내용도 포함됐다. 이는 다른 이론 라인과 긴장 관계에 있는데, omarsar0’s summary of new MIT work는 에이전트들이 진정으로 다른 정보원을 얻지 못하는 한, 위임된 멀티에이전트 플래닝이 중앙집중 Bayes 의사결정자에 의해 **결정이론적으로 지배(dominated)**된다고 주장한다. 실무적 종합은 “프롬프트만 나누는 것”이 아니라 툴·환경·리트리벌 채널을 분할할 때 멀티에이전트가 이점을 준다는 쪽에 가까울 수 있다.
  • Agent attack surface is the web: DeepMind의 새 논문을 요약한 “AI Agent Traps” 스레드는, 에이전트 보안을 모델 탈옥(jailbreak)보다 웹페이지/문서의 적대적 콘텐츠로 재정의한다. 스레드는 HTML/CSS의 숨은 프롬프트 인젝션(prompt injection)이 시나리오의 **최대 86%**에서 성공했고, <0.1% contamination으로도 잠재 메모리 중독(latent memory poisoning)이 80%+ 공격 성공률을 보였다고 인용하며, 브라우징/리트리벌 중심 에이전트를 출시하는 팀에 중요하다고 강조한다.
  • Long-horizon evaluation is getting richer: 새로운 벤치마크/툴로는 Kaggle Standardized Agent Exams, 1년짜리 스타트업 시뮬레이션을 겨냥한 YC-Bench, 그리고 187 manipulation tasks, 12개 프런티어 모델을 포괄하는 에이전틱 로보틱스 벤치마크/툴킷 CaP-Gym / CaP-X 등이 있다. 이는 학습 없는(training-free) 정책과 RL 개선 정책을 모두 포함하며 MIT-licensed code도 제공한다 (open-source details).

학습·리트리벌·인프라: RL 프레임워크, 옵티마이저, 커널, 벤치마크

  • Post-training stack maturation: Hugging Face의 TRL v1.0는 오픈 사후학습(post-training) 스택—SFT, reward modeling, DPO, GRPO—을 프로덕션 지향 패키지로 통합한 의미 있는 진전으로 언급됐다 (commentary). 보완적으로 adithya_s_k의 서베이 스레드는 16 RL frameworks를 오케스트레이션, 롤아웃 버퍼링, 가중치 동기화, staleness 처리, partial-rollout 동작, LoRA 지원, 분산 병렬성 등 관점에서 비교해 TRL/VeRL/SLIME 등 선택에 도움을 준다.
  • Optimization and systems releases: HeavyBall 3.0.0FSDP, DDP, end-to-end compilation(2.5x speedup), 더 빠른 Muon/SOAP 변형, 신규 옵티마이저를 포함해 출시됐다. Together AI는 백그라운드 커널(kernels) 글을 홍보했고, Dan Fu는 “VP of Kernels가 하는 일” 스레드로 뒤를 이었다. 로우레벨 DSL 측면에선 maharshiiCuTeDSL이 Python에서 inline PTX를 직접 쓸 수 있어 커스텀 커널 장벽을 낮춘다고 주장했다.
  • Retrieval evidence continues to favor late interaction: 여러 게시물은 미세조정(fine-tuning) 이후에도 multi-vector / late-interaction retrieval이 단일 벡터 임베딩보다 성능이 좋고, catastrophic forgetting에 더 강하다고 재강조했다 (lateinteraction, ladder visualization). 또한 “RAG”가 특정 오래된 논문을 지칭하기보다 과도하게 포괄적인 우산 용어가 됐다는 불만도 이어졌다 (lateinteraction).
  • Benchmarks and efficiency surfaces: Arena는 텍스트/비전/서치/문서/코드 전반에 Pareto frontier charts를 추가해 가격/성능 트레이드오프를 더 명시적으로 보여줬다. 표준화된 추론(inference) 관점에서는 LambdaNVIDIA가 피크 칩 스펙보다 MLPerf Inference v6.0가 실제 AI 팩토리 생산성에 더 적절한 렌즈라고 언급했다.

개발자 플랫폼, 레이트 리밋(rate limits), 툴링 UX

  • OpenAI Codex usage reset: 실무 엔지니어에게 가장 중요한 플랫폼 공지는 thsottiaux’s note로, OpenAI가 모든 플랜의 Codex 사용량 한도를 리셋했다고 전했다. 이유로는 레이트 리밋 히트 급증과, 동시 진행된 사기 계정 정리로 컴퓨트가 회수되었다는 점을 들었다. 이 소식은 코딩 에이전트 시장에서 레이트 리밋 관대함을 경쟁 축으로 보는 해석과 함께 빠르게 확산됐다 (reach_vb, Yuchen Jin). 이후 thsottiaux는 생태계가 아직 젊고 상호 학습적이기 때문에 Codex의 코어가 오픈소스가 되는 것이 의도라고도 추가로 밝혔다 (post).
  • Agent-ready docs and platform surfaces: LangChain embedded chat into its docs는 전체 문서, 지식 베이스, OSS 코드를 기반으로 문서에 채팅을 임베드했다. Together AI open-sourced 12 agent skills는 Claude Code와 Codex가 올바른 모델 ID/SDK 관용구로 API를 호출할 수 있도록 12개 에이전트 스킬을 오픈소스로 공개했다. OpenAI Devs는 Codex 앱에서 Linear 통합이 더 촘촘해져 티켓과 코드 작업을 동기화하는 흐름을 시연했다.
  • Infra and storage quality-of-life: SkyPilot added native VAST Data support는 이기종 컴퓨트 백엔드에서 고속 데이터셋 마운트를 위한 VAST Data 네이티브 지원을 추가했다. Hugging Face는 Spaces용 persistent Storage Buckets for Spaces를 롤아웃했다. Tinker는 일부 오픈 모델에 대해 최대 256k의 더 긴 컨텍스트 윈도우를 추가해 RL 및 장기 지평(long-horizon) 실험에서 매력을 넓혔다.

참여도 기준 Top tweets


AI Reddit Recap

/r/LocalLlama + /r/localLLM: Claude Code 소스 유출과 분석

  • Claude Code’s source just leaked — I extracted its multi-agent orchestration system into an open-source framework that works with any LLM (Activity: 1205): Claude Code 소스가 유출되어 TypeScript 500K+ 라인과 멀티에이전트 오케스트레이션이 드러났다는 주장. 개발자가 이를 모델 불문(model-agnostic) 오픈소스 프레임워크 open-multi-agent로 재구현했으며, coordinator 패턴, 팀 기반 에이전트 통신, 의존성 기반 스케줄링, 모델-툴 상호작용 루프 등을 포함한다고 설명한다. 구현은 TypeScript ~8000 라인이며 MIT 라이선스로 GitHub에 공개됐다. 댓글에서는 유출 코드 기반 “재구현”의 법적/윤리적 문제, 아키텍처 이해 수준, 라이선스 선택, 그리고 GPT-4o를 코딩에 쓴 점(2026년 시점에서의 적절성) 등이 논쟁점으로 나타났다.
  • Claude code source code has been leaked via a map file in their npm registry (Activity: 5229): npm 레지스트리의 map 파일을 통해 claude-code 프로젝트 디렉터리 구조/TypeScript 파일이 노출된 것으로 보인다는 내용. ‘entrypoints’, ‘commands’, ‘utils’ 등 폴더가 보이며, Anthropic 같은 기업의 민감 코드 관리 보안 허점 문제로 이어졌다. 댓글은 실수/감독 실패를 풍자하거나 “이제 오픈소스”라는 농담을 하며, 한편으로는 캐싱 이슈 같은 버그를 커뮤니티가 고칠 수 있다는 식의 반응도 있었다.
  • Analyzing Claude Code Source Code. Write “WTF” and Anthropic knows. (Activity: 840): Claude Code 코드 분석 글로, wtf, frustrating 같은 키워드로 부정 감정을 플래그하는 단순 탐지, 권한 프롬프트에서의 사용자 행동(피드백 박스 열기/닫기, 입력 후 미제출 등) 로깅, 세션 트랜스크립트 공유 유도 등 계측(instrumentation)·텔레메트리(telemetry)가 자세히 언급된다. ultrathink, ultraplan 같은 숨은 커맨드와 USER_TYPE=ant 내부 모드도 거론된다. 과도하게 “악의적”이라기보다는 일반 앱 분석 관행이라는 댓글도 있으며, 일부 기능은 이스터에그로 해석된다. Source.

/r/LocalLlama + /r/localLLM: 1-bit 및 TurboQuant 모델 혁신

  • The Bonsai 1-bit models are very good (Activity: 657): PrismML의 Bonsai 1-bit 모델이 모델 크기·메모리 사용을 크게 줄여 로컬 배포에 유리하다는 내용. M4 Max 48GB MacBook Pro에서 Bonsai 8B 테스트 사례가 공유되며, 기존 Qwen3 VL 8B Instruct Q4_K_M 대비 메모리 압박이 낮았다고 한다. 다만 1-bit 연산 지원을 위해 메인 llama.cpp가 아닌 특정 fork of llama.cpp가 필요하다고 언급된다. 댓글에서는 코드 생성 성능 한계, 더 큰 Bonsai 모델(예: 200B) 기대, 그리고 Qwen 3.5의 더 나은 양자화(quantization) 버전 탐색 등이 논의됐다. 또한 비교 벤치마크가 GitHub에 공유됐다.
  • TurboQuant isn’t just for KV: Qwen3.5-27B at near-Q4_0 quality, about 10% smaller, and finally fitting on my 16GB 5060 Ti (Activity: 899): TurboQuant TQ3_1S가 Qwen3.5-27B에서 Q4_0에 준하는 품질을 유지하면서 크기를 약 10% 줄여(예: 12.9 GB vs 14.4 GB) 16GB RTX 5060 Ti에 탑재 가능해졌다는 주장. PPL도 7.2570 vs 7.2431로 차이가 작다고 제시된다. 댓글에서는 PPL이 양자화 손실 지표로 적절한지, KLD나 PPL ratio가 더 낫다는 주장, 실제 벤치마크 비교 필요성, 연구 주장과 실사용 사이의 간극 등이 논쟁점이었다.
  • PrismML — Announcing 1-bit Bonsai: The First Commercially Viable 1-bit LLMs (Activity: 596): PrismML1-bit Bonsai 모델(예: 1-bit Bonsai 8B)을 공개했다고 소개. 임베딩, 어텐션, MLP, LM head 등 모든 구성요소를 1-bit로 엔드-투-엔드 양자화했으며, 8.2B 파라미터가 1.15 GB 메모리에 들어간다고 주장한다. 또한 14x smaller, 8x faster, 5x 에너지 효율을 언급하며 엣지(edge) 하드웨어 적합성을 강조한다. Apache 2.0으로 오픈소스화되었고, 추론에는 llama.cpp 포크가 필요하다고 한다. 추가 자료는 whitepaper. 댓글에서는 1-bit의 실용성/트레이드오프에 대한 회의와 온디바이스(on-device) 가능성에 대한 기대가 엇갈렸다.

/r/LocalLlama + /r/localLLM: 로컬 AI 하드웨어·소프트웨어 실험

  • Local LLM Claude Code replacement, 128GB MacBook Pro? (Activity: 140): API 비용 상승 우려로 Claude Code 대체를 위해 128GB MacBook Pro로 로컬 LLM을 돌릴지 고민하는 글. 2019 Intel MacBook Pro에서 Docker 다중 컨테이너로 성능 문제가 있었고, Claude Code의 1M 컨텍스트와 비교해 오픈 모델이 어느 수준까지 대체 가능한지 논의됐다. qwen3.5 122b ud q4 xl256k context로 128GB RAM 환경에서 돌린 경험담, 구매 전 DeepInfra 같은 서비스로 오픈 모델을 먼저 시험해 보자는 의견, Bodega inference engine로 구독을 대체했다는 사례(Read more here) 등이 공유됐다.
  • Worth building a $7k local AI rig just to experiment? Afraid I’ll lose interest. (Activity: 131): 사진/영상 생성, 모델 통합, AI 어시스턴트 개발을 위해 $7k 로컬 AI PC를 조립할지(예: RTX 5090, 64GB DDR5, 추가 RAM 업그레이드 계획) 고민하는 글. 댓글에서는 1주 렌탈/클라우드로 관심도와 사용성 검증, LM Studio로 Qwen3.5 등 모델을 먼저 시험, 현재 가격이 높으니 대기하자는 의견 등이 제안됐다.
  • We built a local inference engine that skips ROCm entirely and just got a 4x speedup on a consumer AMD GPU (Activity: 124): ZINC라는 새 추론 엔진이 ROCm을 우회하고 Vulkan으로 AMD GPU에 직접 인터페이스해 4x speedup을 얻었다는 주장. Qwen3.5-35B-A3B, Qwen3.5-2B 등을 지원하며, 예시로 33.58 tok/s와 같은 수치를 제시한다. OpenAI 호환 API 서버와 병렬 요청 배칭도 언급된다. 오픈소스는 GitHub. 댓글에서는 “속도 향상” 대비 절대 성능이 llama.cpp보다 낮다는 지적, 초기 베이스라인이 과도하게 낮았을 수 있다는 의문, 다른 Vulkan 구성의 참조 성능 공유 등이 있었다.

Less Technical Subreddits

대상: /r/Singularity, /r/Oobabooga, /r/MachineLearning, /r/OpenAI, /r/ClaudeAI, /r/StableDiffusion, /r/ChatGPT, /r/ChatGPTCoding, /r/aivideo, /r/aivideo

  • Claude code source code has been leaked via a map file in their npm registry (Activity: 1598): 2026년 3월 31일, Anthropic의 Claude Code CLI 전체 소스가 npm 레지스트리의 .map 파일을 통해 유출됐다는 주장. GitHub에서 관련 소스를 확인할 수 있다고 하며, 코드베이스는 대략 512k lines of TypeScript, 터미널 UI는 React + Ink, 런타임은 Bun이라고 소개한다. 댓글에서는 LLM과 에이전트의 차이에 대한 오해가 드러난다는 지적과, 기술·운영 측면의 파장에 대한 논의가 있었다.
  • Anthropic staff reacts to Claude code leak 👀 (Activity: 859): 유출 사건을 둘러싼 밈(meme) 이미지로, 법무는 “삭제”를 원하지만 엔지니어는 “별(star) 찍었다”는 식의 이중 반응을 웃음 포인트로 다룬다. 일부는 유출이 오히려 버그 수정·하네스 구현 확산으로 도움이 될 수 있다고 보거나, 빠른 개발 속도에서 어느 정도 예상된 사건이라는 반응도 보였다.
  • Claude Code Source Leak Megathread (Activity: 653): 유출된 Claude Code CLI 소스에서 드러난 기술 디테일을 모은 스레드. 예를 들어 Rust 포트에서의 DuckDuckGo 대체가 부정확하고 실제로는 Anthropic 서버 측 검색으로 중첩 API 호출을 하며 암호화된 blob을 반환한다는 주장, 85개 도메인만 전체 추출이 허용되고 기타 도메인은 125자 인용 제한이라는 “2단계 웹 시스템”, &lt;head&gt; 구조 데이터 무시, 테이블 미지원, 쿼리당 8개 결과 제한과 페이지네이션 부재, 비활동 후 메모리 자가리뷰 기능 KAIROS_DREAM, 검색 버전 web_search_20260209의 프로그래매틱 필터링 등이다. 또한 Anthropic이 DMCA를 발행했다는 언급도 포함된다.
  • i dug through claude code’s leaked source and anthropic’s codebase is absolutely unhinged (Activity: 6259): 유출 코드에서 /buddy로 보이는 터미널 펫(18종, 가챠 희귀도 등), 내부 스캐너 회피를 위한 종명(hex 인코딩) 같은 기묘한 요소, STT로 Deepgram Nova 3를 쓰는 음성 모드, 코드네임 ‘tengu’ 기반 이벤트/플래그, main.tsx의 매우 큰 파일 크기, 460 eslint-disable 및 다수의 deprecated 함수 사용 등을 언급한다. 댓글에서는 대규모 코드베이스에선 흔한 모습이라는 반론과, 레거시 유지·마이그레이션·데드라인 압박이 만드는 현실이라는 의견이 교차했다.
  • Claude Code’s source code just leaked — so I had Claude Code analyze its own internals and build an open-source multi-agent framework from it (Activity: 513): 유출된 Claude Code 소스(500K+ TypeScript 라인, 멀티에이전트 오케스트레이션)를 기반으로, 모델 불문 프레임워크를 재구현해 공개했다는 내용. 멀티에이전트 팀, 의존성 기반 파이프라인, 메시징, LLMAdapter 등을 특징으로 들며 GitHub에서 MIT 라이선스로 제공된다고 한다. 댓글에서는 핵심이 표준적인 에이전트 루프/태스크 큐 코디네이터 패턴이며, CrewAI/AutoGen/Claude Agent SDK 등 유사 대안이 있다는 지적과, 모델 혼합으로 비용을 줄일 수 있다는 긍정이 함께 나왔다.
  • Anthropic’s leaked CLI source code reveals a hidden “Tamagotchi” pet and autonomous multi-agent teams. The bar for developer tools is getting wild. (Activity: 161): 유출된 CLI 코드가 “BUDDY” 펫 시스템과 “ULTRAPLAN”, “BRIDGE MODE”, “KAIROS” 같은 자율 멀티에이전트 기능을 드러냈다고 소개하는 글. 상세 분석 링크로 full analysis를 제시한다. 댓글은 자율 팀 기능의 실재성/과장 가능성, /buddy가 이미 동작한다는 주장(검증 필요), 4월 1일(만우절) 농담 가능성 등을 두고 엇갈렸다.
  • OpenAI raises $122 billion to accelerate the next phase of AI (Activity: 794): OpenAI$122 billion을 조달해 post-money $852 billion 밸류에이션에 도달했으며, ChatGPT 주간 활성 사용자 900 million, 월 매출 $2 billion 등을 보고했다고 소개한다. Amazon, NVIDIA, Microsoft 등과의 파트너십을 강조하며 컴퓨트 인프라 확장과 소비자/엔터프라이즈를 아우르는 AI “슈퍼앱” 방향을 언급한다. 원문은 original article. 댓글에서는 이렇게 큰 자금의 필요성과 사용처에 대한 회의가 제기됐다.

AI Discord Recap

AINews

  • Discord 접근이 이날 차단되어 Discord Recap을 제공하지 못했다고 안내했다. 기존 형태로는 복구하지 않지만, 새로운 AINews를 곧 출시할 예정이며 “여기까지 읽어줘서 고맙다”는 메시지로 마무리했다.