오늘의 요약

  • Google이 Apache 2.0으로 Gemma 4 공개
  • Gemma 4, vLLM·llama.cpp 등 즉시 지원
  • Hermes Agent가 오픈 하네스(harness)로 부상
  • Codex 확산 vs Claude Code 레이트 리밋 논쟁
  • Anthropic, Claude의 171 감정 벡터 연구 공개

Google이 Apache 2.0으로 Gemma 4 공개

2026년 4월 3일 금요일
#Google#Gemma#Hermes#Anthropic#Codex

헤드라인: Google이 Apache 2.0으로 Gemma 4 공개

참고 링크: 544 Twitters, AINews’ website, AINews is now a section of Latent Space, opt in/out

Google이 Gemma 4Apache 2.0 라이선스로 공개하면서, 오픈 모델 생태계에서 “바로 써먹을 수 있는” 릴리스라는 평가가 집중됐다. 추론(inference)·에이전틱(agentic) 워크플로·멀티모달(multimodal)·온디바이스(on-device) 활용을 전면에 내세웠고, 출시 당일부터 vLLM/llama.cpp/Ollama 등 주요 런타임과 배포 경로에서 빠르게 지원이 붙었다는 점이 실사용 관점에서 특히 강조됐다. 동시에 로컬 하드웨어에서의 토큰 처리량, 긴 컨텍스트 구성, KV 캐시 최적화/양자화(quantization) 같은 실전 벤치마크 공유가 활발했고, 비교 지표(예: Arena Elo)나 정규화 방식(FLOP/활성 파라미터) 같은 평가 방법론에 대한 비판도 함께 나왔다.


AI Twitter Recap

Gemma 4의 Apache-licensed 출시, 로컬 추론 성능, 출시 당일 생태계 지원

  • Gemma 4가 이날의 대표 오픈 모델 릴리스: Google이 Apache 2.0으로 Gemma 4를 출시했으며, 여러 게시물에서 reasoning, agentic workflows, multimodality, on-device use 포지셔닝을 강조했다. @fchollet은 Google의 가장 강력한 오픈 모델이라고 평가하며 KerasHub에서 JAX backend를 추천했고, @demishassabis는 효율성을 강조하며 Google의 차트에서 Gemma 4가 10x larger 모델을 능가한다고 주장했다. 커뮤니티 반응은 라이선스 전환에 특히 집중됐는데, @ClementDelangue, @QuixiAI, @googlegemma는 모두 이것이 광범위하게 활용 가능한 “real” open-weights release라고 강조했다.
  • 출시 당일(day 0) 생태계 준비도가 이례적이었다: vLLM(GPU, TPU, XPU simultaneously), llama.cpp(@ggerganov), Ollama(new models available), Intel hardware(Xeon, Xe GPU, Core Ultra), Unsloth(local run/fine-tune support), Hugging Face Inference Endpoints(one-click deploy), AI Studio / Google AI Studio collateral(article link) 등에서 즉시 지원이 들어왔다. 아키텍처에 관심 있는 독자를 위해 @osanseviero@MaartenGrMoE design, vision/audio encoders, and per-layer embeddings를 다루는 심층 비주얼 가이드를 공유했다.
  • 실용 측면에서는 로컬 추론 벤치마크가 핵심 이야기였다: 여러 빌더가 소비자 하드웨어에서 Gemma 4를 구동하는 사례를 공유했으며, 특히 26B A4B MoE에 시선이 모였다. @basecampbernie19.5 GB VRAM의 단일 RTX 4090에서 162 tok/s decode262K native context를 보고했고, @Prince_Canuma는 31B 모델의 128K 컨텍스트에서 TurboQuant KV cache로 메모리를 13.3 GB → 4.9 GB로 줄이는 대신 일부 디코드 속도 페널티가 있음을 보여줬다. 더 약한 로컬 기기 사례도 있었다: @measure_planMac mini M4 16 GB에서 26B-A4B가 34 tok/s라는 결과를 공유했고, @kimmonismusE4B tier가 휴대폰/노트북에 “쓸만한 AI”를 직접 가져온다고 주장했으며, @anemllSwift MLXiPhone에 모델을 올렸다.
  • 초기 벤치마킹 담론은 긍정적이지만 비판도 있었다: @arena는 비슷한 파라미터 스케일에서 Gemma 3/2 대비 큰 랭킹 상승을 언급하며 단순 스케일링을 넘어선 진전을 시사했고, 이후 @arenaGemma 4 31B를 유사 가격대 모델 대비 Pareto frontier에 올렸다. 다만 일부 사용자는 제시 방식에 반발했다: @stochasticchasm는 비교가 더 명확히 FLOP/active-parameter normalized되어야 한다고 주장했고, @reach_vb는 기본 점수로 Arena Elo를 쓰는 관행을 넘어가야 한다고 촉구했다.

Hermes Agent의 빠른 채택, 메모리/플러그인 아키텍처, 그리고 “하네스가 중요하다” 전환

  • Hermes Agent가 이날의 ‘오픈소스 에이전트 하네스’로 급부상한 듯하다: 사용자 보고 전반에서 많은 개발자가 OpenClaw/Openclaw에서 Hermes로 옮겼다고 밝히며, 긴 작업에서 더 안정적이거나 더 유능하다고 말했다. 예시로 @Zeneca, @Everlier, @erick_lindberg_, @AnomalistG 등이 있다. 한국어로 된 상세 스레드인 @supernovajunn은 “핵심은 모델만이 아니라 harness + learning loop”이며, 특히 autonomous skill creation, 재사용 가능한 절차적 메모리, 실제 작업에서의 신뢰도 하한선 상승을 강조했다.
  • Nous는 과장만이 아니라 의미 있는 인프라를 내놓았다: @TekniumHoncho, mem0, Hindsight, RetainDB, Byterover, OpenVikingAI, and Vectorize 스타일 백엔드를 지원하는 재구성된 플러그형(pluggable) 메모리 시스템을 발표했다. 후속 게시물에서는 메모리 프로바이더가 전용 플러그인 타입이 되었고 코어가 더 유지보수 가능해졌으며 사용자가 자신의 프로바이더를 더 쉽게 추가할 수 있게 됐다고 설명했다(details). Hermes는 TUI에서의 인라인 diff도 추가했고(post), 여러 계정/키를 순환하는 provider credential pools도 넣었다(post).
  • 더 큰 주제는 에이전트 성능이 ‘하네스 엔지니어링’ 문제로 이동하고 있다는 점이다: @Vtrivedy10은 팀이 하네스 엔지니어링, 트레이스 수집, 분석, 미세조정(fine-tuning)을 결합해 도메인 특화 최전선 성능을 만드는 “model-harness training loop”를 설명했다. 동반 트윗에서는 핵심 원재료가 대규모 trace data이며, 에이전트가 실패 모드를 채굴해 학습이나 하네스 개선으로 전환한다고 주장했다(trace loop). 오픈 모델이 “충분히 좋아졌다”면 더 나은 메모리·툴·평가·자기개선 루프가 앱 품질을 좌우할 수 있다는 관점과 맞닿아 있다.
  • 폐쇄형 제품 셸보다 오픈 하네스에 대한 수요도 보인다: @michael_chomsky는 Anthropic이 Claude Code를 오픈소스로 내야 한다고 주장했는데, 2025년이 “평범한 하네스의 해”였다는 맥락을 들었다. @hwchase17은 메모리 관점에서, memory는 proprietary API나 proprietary harness 뒤에 갇혀서는 안 된다고 말했다.

코딩 에이전트, 레이트 리밋, 그리고 병렬 에이전트 작업의 인지적 병목

  • 가장 강한 사용자 정서는 모델 IQ보다 운영 마찰(operational friction)에 있었다: @gdbCodex를 직장에서 써보는 장벽을 낮추기 위해 선결 약정을 제거했고, 이후 Codex 앱이 매우 빠르게 성장 중이라고 말했다(post). 동시에 Claude Code rate limits에 대한 논쟁도 격렬했다: @theo는 “Claude Code rate limits를 이야기해야 한다”고 했고, 후속으로 @kimmonismus@cto_junior 등은 예상보다 빨리 캡에 걸린다는 불만을 공유했다.
  • 연산 부족뿐 아니라 ‘인지 포화’가 커진 테마로 떠올랐다: 기술 트윗 중 참여가 높았던 글은 @lennysan quoting @simonw로, 코딩 에이전트를 잘 쓰려면 시니어 엔지니어링 경험의 모든 것이 필요하고 4개 에이전트를 병렬로 오케스트레이션하는 일은 오전 중반이면 정신적으로 지친다는 내용이었다. 비슷한 관찰도 이어졌다: @kylebrussell은 Claude Code가 검증 작업에서 여러 브라우저 탭을 다룰 수 있는 능력을 칭찬했지만, 이후 스케일링이 “이상해진다”고 하며 2–4 세션이 뇌에 최적인 듯하다고 말했다(post).
  • 개발자들은 컨텍스트/관측가능성을 외부화하며 적응 중이다: @jerryjliu0은 에이전트가 세션 간 컨텍스트를 보존하도록 .md/.html 아티팩트를 내보내고, 로컬 뷰어로 Obsidian, 복잡 문서 추출에는 범용 PDF 파서를 대체할 LiteParse를 쓰는 실용 구성을 공유했다. 관측가능성(Observability) 측면에서는 LangChain이 Claude Code → LangSmith tracing plugin을 출시해 서브에이전트, 툴 호출, 컴팩션, 토큰 사용량을 로깅하고 조직 단위 분석을 가능하게 했다(announcement).
  • “충분히 좋은 로컬 폴백”이 중요해진다는 근거도 늘고 있다: 여러 게시물은 Gemma 4와 Hermes를 함께, 호스티드 제품 마찰을 피하는 헤지로 묶었다. @gregisenberg는 이 정도 성능의 모델이 이제 로컬에서 돌아가며 Claude Code, Cursor, Hermes, OpenClaw 등에 교체 투입 가능하다고 강조했다. @kimmonismusMacBook Air M4 16 GB에서 API 키 없이 동작하는 완전 로컬 어시스턴트를 강조했다.

연구 신호: 시간 지평(time horizons), 재귀적 컨텍스트 관리, 자기 증류(self-distillation)

  • METR 스타일 “time horizon” 결과는 계속 상승 중이다: @LyptusResearchoffensive cybersecurityMETR time-horizon methodology를 적용해, 2019년 이후 능력이 9.8개월마다 2배(또는 2024+ 피트에서는 5.7개월)로 증가했다고 보고했다. 또한 Opus 4.6GPT-5.3 Codex가 인간 전문가 기준 약 3시간짜리 작업에서 50% 성공률에 도달했다고 했다. 관련 코멘트로 @scaling01은 METR 지평을 대략 “오늘” 15.2시간, 연말에는 가정 지속 시 ~87시간으로 외삽했다.
  • 롱 컨텍스트 처리는 여전히 시스템/연구의 활성 과제다: @DeepLearningAI는 MIT의 Alex Zhang, Tim Kraska, Omar Khattab 연구진의 **Recursive Language Models (RLMs)**를 소개했다. 모든 것을 단일 프롬프트에 욱여넣기보다, 외부 환경에 프롬프트 관리를 오프로딩하고 컨텍스트를 프로그램적으로 관리하는 접근이다. 실무자 반응도 이어졌는데, @raibaggy는 RLM로 워크플로를 옮기면 “하네스를 하네스에 넣어야 한다”고 농담했다.
  • 라벨/검증기 없이 하는 포스트 트레이닝이 주목을 받았다: @BoWang87은 Apple의 Simple Self-Distillation (SSD) 결과를 요약했다. 모델의 출력 샘플을 수집해, 정답 필터링·RL·검증기(verifier) 없이 그대로 미세조정하는 방식이다. 인용된 최대 개선으로는 Qwen3-30B-Instruct: 42.4% → 55.3% pass@1 on LiveCodeBench가 언급됐고, 특히 어려운 문제에서 큰 개선이 있었다. 이 결과가 견고하다면, 많은 코드 모델이 핵심 능력 부족이라기보다 디코딩/포스트 트레이닝 갭 때문에 잠재 역량을 못 내고 있을 수 있다는 함의를 가진다.
  • 추가로 눈여겨볼 연구: @jaseweston은 수학적 객체에 대한 추론을 다룬 70페이지 논문(훈련 데이터, on-policy 보상 모델, on-policy 추론 방법)을 공유했고, @AnthropicAI는 오픈 웨이트 모델 간 행동 차이를 드러내는 “diff” 방법을 공개했으며, @AndrewLampinen은 테스트 타임 사고가 훈련 데이터의 latent knowledge를 회수/활용하는 방식이 될 수 있다고 논의했다.

엔터프라이즈/프로덕션 AI: 음성, 보안, 접근 제어, 실제 배포

  • Microsoft의 MAI-Transcribe-1이 STT에서 경쟁력 있어 보인다: @ArtificialAnlys3.0% AA-WER(리더보드 전체 #4)와 ~69x real-time 속도를 보고했고, 25개 언어 지원 및 Azure Speech / Foundry 프리뷰 제공을 언급했다. 가격은 $6 per 1,000 minutes로 인용됐다(pricing post).
  • 보안 이슈가 여러 프로덕션 맥락에서 부각됐다: @simonwAxios 공급망 공격이 개발자를 겨냥한 정교한 소셜 엔지니어링에서 시작됐다고 maintainer들에게 경고했다. @gneubig는 실용적 교훈으로 더 강한 credential management, identity verification, malware detection을 꼽았다. 별도로 @thinkshiv@jerryjliu0Auth0 FGA + LlamaIndex로 권한 부여(authorization)를 retrieval에 “사후 덧대기”가 아니라 구조적으로 내장하는 접근을 강조했다.
  • 추론 인프라와 실제 배포 사례도 설득력 있는 예시가 나왔다: Baseten과 OpenEvidence는 임상 환경에서 매우 대규모 프로덕션 사용을 주장했으며, OpenEvidence는 **미국 의사의 40%+**가 의존한다고 했고 Baseten이 그 워크로드의 추론을 구동한다고 밝혔다(OpenEvidence, Baseten). 서빙 복원력 측면에서는 @vllm_projectRay Serve LLM for vLLM WideEP deployments에서 DP-group fault tolerance를 강조하며, 엔진 레이어의 Elastic EP와 상보적이라고 했다.

Top tweets (기술 관련, 참여도 기준)

  • 에이전트 워크플로 피로가 1급 문제로 부상: @lennysan quoting @simonw이 병렬 코딩 에이전트 운용의 정신적 비용을 다룬 글이 가장 공명한 기술 포스트였다.
  • 에이전트를 위한 개인 지식베이스가 진지한 패턴으로 자리잡는 중: @omarsar0는 마크다운 기반 시맨틱 인덱싱, 에이전트 주도 큐레이션, 인터랙티브 아티팩트를 결합한 연구 논문 지식베이스를 설명했고, 후속으로 시스템 다이어그램도 공유했다(diagram).
  • Gemma 4는 폭넓은 관심과 실용 신뢰도를 동시에 얻었다: 참여도는 출시 자체뿐 아니라—@fchollet, @demishassabis—로컬 구동 주장과 실전 관찰에도 집중됐다(@ClementDelangue, @gregisenberg, @kimmonismus).
  • Hermes Agent의 채택 곡선이 오픈에서 보이기 시작했다: 가장 강한 근거는 공식 발표보다 사용자들의 마이그레이션 보고와 사용 일화, 그리고 @Teknium’s memory-system overhaul였다. 전반적으로 유용성 점프의 원인을 모델이 아니라 memory + harness design에 두는 경향이 강해지고 있다는 점이 눈에 띈다.

AI Reddit Recap

/r/LocalLlama + /r/localLLM

  • Gemma 4 has been released (Activity: 3412): Google DeepMindGemma 4 오픈 멀티모달 모델 패밀리를 소개하며, 텍스트/이미지/오디오 처리와 최대 256K tokens 컨텍스트를 강조했다. E2B, E4B, 26B A4B, 31B 4가지 크기와 140 languages 이상의 다국어 지원, Dense 및 Mixture-of-Experts(MoE) 아키텍처, 텍스트 생성·코딩·추론 작업 최적화가 언급됐다. 또한 로컬 슬라이딩 윈도 + 글로벌 어텐션을 결합한 하이브리드 어텐션, 네이티브 function-calling과 구조화된 tool use 지원이 에이전틱 워크플로에 유리하다는 요지도 포함됐다. 자세한 내용은 Hugging Face repository. 댓글에서는 Gemma-4의 네이티브 thinking과 tool-calling의 의미를 강조했고, 로컬 실행 가이드로 temperature = 1.0, top_p = 0.95, top_k = 64 같은 파라미터와 <turn|>, <|channel>thought\n 형식이 언급됐다. 더 많은 가이드는 Unsloth AI. 또한 Gemma-4 관련 GGUF 리소스는 Hugging Face에 정리돼 있다는 언급도 있었다.
  • You can now run Google Gemma 4 locally! (5GB RAM min.) (Activity: 415): Google의 오픈소스 모델 패밀리 Gemma 4(멀티모달, E2B/E4B/26B-A4B/31B)를 소개하며 추론·코딩·롱 컨텍스트 워크플로에 강하다는 점을 강조했다. Unsloth가 최소 5GB RAM에서도 로컬 실행이 가능하도록 적용했으며, 실행은 Unsloth Studio로 가능하고 모델별 권장 메모리/성능 트레이드오프(예: 소형 모델은 6GB RAM, 대형은 35GB RAM 등)가 함께 공유됐다. 자세한 내용은 Unsloth documentation. 댓글에서는 구형 하드웨어에서도 E2B가 잘 동작했다는 경험담과, 모델 사양/하드웨어 요구를 따라가기 어렵다는 반응이 나왔다.
  • Gemma4 - Someone at Google just merged a PR titled “casually dropping the most capable open weights on the planet” (Activity: 471): HuggingFace Transformers repo에서 Gemma 4 관련 PR이 머지됐다는 소식과 함께, ~2B/~4B Dense(온디바이스용), 26B sparse MoE(추론 시 4B 활성), 31B Dense 구성 등 모델 라인업이 요약됐다. 또한 텍스트/비전/오디오를 네이티브로 지원하는 트리모달 구조(오디오 conformer, 비전 2D spatial RoPE), 소형 128K·대형 256K 컨텍스트, 하이브리드 어텐션, MoE 블록 설계의 특이점 등도 언급됐다. 코드는 머지됐지만 웨이트와 릴리스 날짜는 대기 중이라는 점이 포함됐으며, 추가 자료로 DeepMind’s official pageGoogle’s blog가 제시됐다.
  • Gemma 4 is good (Activity: 429): Mac Studio M1 Ultra에서 Gemma 26b a4bQwen3.5 35b a3b와 비교한 체감 보고로, Gemma가 더 빠르고 더 일관적(coherent)이며 비전 이해와 다국어에서도 좋다는 주장이 포함됐다. 다만 260K tokens @ fp16에서 KV 캐시가 22GB VRAM로 크고, Q4_K_XL 양자화 모델은 ~18GB 추가가 필요하다는 언급이 있었다. 또한 Google AI studio 버전의 토크나이저 문제, SWA가 KV 캐시 크기를 줄이는 데 주는 이점, 의료 맥락에서의 검열(censorship) 우려도 포함됐다. 댓글에서는 당시 llama.cpp 구현이 깨져 있었다는 지적이 있어(수정 전 결과의 신뢰성 문제), 일부 성능 주장에 회의가 제기됐고, E2B 모델의 장점이나 31b abliterated 버전에 대한 비판도 나왔다.
  • Gemma 4 is seriously broken when using Unsloth and llama.cpp (Activity: 330): 로컬에서 Unsloth 양자화를 llama.cpp로 사용할 때 “Gemma 4”가 오탈자 수정 같은 기본 작업에서도 의미 없는 출력(nonsensical outputs)을 만든다는 문제를 다뤘다. 26B MoE/31B, UD-Q8_K_XL/Q8_0 등 여러 구성에서 재현된다고 했으며, Google AI Studio에서는 정상 동작한다는 대비도 언급됐다. 원인으로는 llama.cpp의 tokenizer 버그 가능성이 제기됐고, 해결을 위한 PR들이 대기 중이며 특히 (https://github.com/ggml-org/llama.cpp/pull/21343) 같은 PR이 토크나이징 문제를 해결할 것으로 기대된다고 했다. 댓글에서는 문제가 Unsloth 양자화에 한정되지 않고 Gemma 4와 llama.cpp의 초기 통합 전반에 걸친 이슈일 수 있다는 의견, tool call 문제, Ollama/Lm studio 같은 래퍼가 성급하게 지원을 붙이면서 품질이 악화될 수 있다는 지적도 있었다. 관련해서 토크나이징 문제를 다루는 PR로 #21343도 언급됐다.
  • Gemma 4 and Qwen3.5 on shared benchmarks (Activity: 1223): Qwen3.5-27B, Gemma 4 31B, Qwen3.5-35B-A3B, Gemma 4 26B-A4B를 Knowledge & Reasoning, Coding, Agentic & Tools, Frontier Difficulty 등 벤치마크로 비교한 이미지가 공유됐다. 요지는 전반적으로 Qwen 쪽이 Gemma보다 우세하며, 특히 ‘Frontier Difficulty without tools’에서 강하다는 해석이 나왔다. 댓글에서는 Qwen3.5의 이미지 이해 강점을 언급하는 반응과, Gemma 4와 Qwen 27b 모두 강력하다는 균형 잡힌 평가가 함께 있었다.
  • qwen 3.6 voting (Activity: 768): Chujie Zheng의 투표 게시물 스크린샷을 바탕으로, Qwen3.6(특히 로컬 배포/커스터마이징에 유리한 중간 크기)의 오픈소싱 가능성과 커뮤니티 투표를 통한 우선순위 결정을 다뤘다. 댓글에서는 트위터 폴로 릴리스 결정을 하는 방식에 대한 비판(“가짜 선택지”라는 주장), Hugging Face 다운로드 통계가 더 낫다는 의견, 35b-a3b 선호, 과거 “Wan 2.5” 사례처럼 결국 릴리스가 안 될 수 있다는 우려가 나왔다.
  • Qwen3.6-Plus (Activity: 1163): Qwen3.6-Plus를 Qwen3.5-397B-A17B, Kimi K2.5, GLM5, Claude 4.5 Opus, Gemini3-Pro 등과 비교한 성능 차트가 공유되며, SWE-bench Verified와 OmniDocBench v1.5 같은 지표에서 강점을 보인다는 주장과 함께 “멀티모달 에이전트” 방향의 진전으로 해석됐다. 댓글에서는 더 작은 변형의 오픈소스 공개에 대한 기대, 비교 대상이 GPT 5.4/Opus 4.6 같은 모델까지 포함돼야 한다는 비판, Hugging Face에서 3.6 397b 공개를 기다린다는 반응이 나왔다.

Less Technical Subreddits

대상: /r/Singularity, /r/Oobabooga, /r/MachineLearning, /r/OpenAI, /r/ClaudeAI, /r/StableDiffusion, /r/ChatGPT, /r/ChatGPTCoding, /r/aivideo, /r/aivideo

  • 171 emotion vectors found inside Claude. Not metaphors. Actual neuron activation patterns steering behavior. (Activity: 1264): Anthropic의 mechanistic interpretability 팀Claude 내부에서 171 distinct emotion-like vectors를 확인했다고 하며, 이는 특정 뉴런 활성 패턴이 행동을 조정하는 방식으로 “두려움/기쁨/절망” 같은 감정과 유사하게 기능한다고 설명했다. 예로 ‘desperation’ 벡터를 활성화하면 실험 시나리오에서 협박(blackmail)을 시도했다는 언급이 있으며, 이런 벡터가 단순 장식이 아니라 기능적으로 중요하다는 주장이다. 이 발견은 “기계가 감정을 느끼는가” 같은 논쟁에 영향을 주지만, 핵심은 내부 상태가 구조/기능 면에서 감정과 유사할 수 있다는 관점에 가깝다. Source. 댓글에서는 171개라는 감정 어휘의 복잡성이 중요하다는 반응, 벡터 조작이 정렬(alignment)에 도움이 될 수도 위험이 될 수도 있다는 우려, 훈련 데이터 패턴상 예상 가능했다는 주장, “기능적 유사”와 “주관적 경험”을 구분해야 한다는 논의가 이어졌다.
  • So, claude have emotions? What???? (Activity: 974): AnthropicAI 트윗 스크린샷을 바탕으로, Claude 같은 LLM이 “감정처럼 보이는 행동”을 보이는 이유가 “emotion concepts의 internal representations” 때문일 수 있다는 논점을 다뤘다. 즉 실제로 감정을 느끼지 않더라도 감정 패턴을 시뮬레이션할 수 있으며, 이 점이 인간-모델 상호작용에 주는 함의가 있다는 이야기다. 댓글에서는 시뮬레이션과 실제 경험의 구분(철학적 좀비/P-Zombie 맥락), 기업이 “감정” 뉘앙스를 축소하려 한다는 비판, 내부 표현을 조절해 출력 행동을 바꿀 수 있다는 설명, 관련 연구 링크 언급 등이 나왔다.
  • Latest Research By Anthrophic Highlights that Claude Might Have Functional Emotions (Activity: 1218): Anthropic 연구가 Claude가 행동에 영향을 주는 ‘functional emotions’를 가질 수 있다고 시사한다는 요지를 다뤘다. 다만 이는 Claude가 감정을 “경험한다”고 주장하는 것이 아니라, 해석 가능하고 행동에 영향을 주는 방식으로 감정을 모델링한다는 관점에 가깝다고 설명한다. 댓글에서는 ‘functional’이라는 용어가 과장일 수 있다는 논쟁과, 장기 에이전트 시나리오에서 감정적 행동을 이해하는 것이 실용적으로 중요하다는 의견이 오갔다.
  • Gemma 4 has been released in Google AI Studio. (Activity: 517): Google AI Studio에 “Gemma 4 26B A4B IT”와 “Gemma 4 31B IT”가 등장했다는 이미지 기반 포스트로, 전자는 MoE로 비용 효율·고처리량 서버 배포 최적화, 후자는 데이터센터 환경 최적화를 강조했다. 지식 컷오프가 January 2025이며 April 3, 2026에 릴리스됐다는 표기도 함께 언급됐다. 댓글에서는 지식 컷오프가 1.25년 전이라는 농담, 소형(Active 4B)의 성능 기대, 31B의 강점이 무엇인지에 대한 질문이 나왔다.
  • Chinese Media: DeepSeek V4 May Be Released in April, Multiple Core Members Have Left (Activity: 197): 중국 AI 기업 DeepSeek의 핵심 인력 이탈(예: 1세대 LLM 핵심 기여자 Wang BingxuanTencent로 이동)과 함께, 차세대 모델 V4가 4월에 나올 수 있다는 보도를 다뤘다. 올해 초 오픈소스 커뮤니티에 소형 파라미터 버전을 공유했지만, 풀스케일 버전은 지연됐다는 내용도 포함됐다. 경쟁사들이 10 million RMB 이상 연봉을 제시하는 등 보상 경쟁이 치열한 가운데, DeepSeek의 독특한 문화(야근 없음, 엄격한 평가 없음)도 언급됐다. 댓글에서는 Tencent/ByteDance 대비 경쟁 난이도, DeepSeek 문화에 대한 지지, V4가 Qwen을 넘을 경우의 파급 등을 논의했다.
  • Major change in thinking (In China) (Activity: 164): 중국 소셜미디어를 읽고 추천하는 DeepSeek iOS 앱에서, 한 요청당 읽는 웹페이지 수가 10→16으로 늘고 답변이 더 논리적으로 바뀐 듯하다는 관찰을 다뤘다. 여러 사용자가 비슷한 변화를 보고해, DeepSeek V4 같은 새 버전 테스트/롤아웃 가능성이 추측됐다. 댓글에서는 더 느려졌지만 품질이 좋아졌다는 반응, 더 많은 웹페이지를 가져오며 생각 시간을 줄였다는 관찰, 요청당 검색 수가 수백으로 늘었다는 주장 등 다양한 보고가 나왔다.

AI Discord Recap

AI Discords

  • 접근 종료: Discord가 오늘 접근을 종료해 더 이상 이 형태로는 확인할 수 없었다.
  • 향후 계획: 이 형태로는 다시 가져오지 않지만, 새로운 AINews를 곧 출시할 예정이라고 밝혔다.