오늘의 요약

  • Perplexity, Android용 Computer 출시
  • Google, Gemini Embedding 2 공개
  • Moonshot `Attention Residuals` 논문 화제
  • OpenAI Codex, 주간 활성 200만+ 언급
  • NVIDIA, Nemotron 라이선스 제약 완화

Perplexity, Android용 Computer 출시

2026년 3월 16일 월요일
#OpenAI#Codex#Perplexity#Google#LangChain

헤드라인: Perplexity, Android용 Computer 출시

참고 링크: 544 Twitters AINews’ website AINews is now a section of Latent Space opt in/out

Perplexity가 Android에서 Computer를 공개한 뒤, Computer가 Comet을 제어하거나 로컬 브라우저를 커넥터/MCP 없이 도구로 사용하는 방향으로 확장했다. 로컬 쿠키를 보존하면서 사용자가 에이전트의 동작을 직접 확인하는, 권한 기반(permissioned) 로컬 브라우저 제어로의 확장을 강조한 출시로 정리된다.


AI Twitter Recap

아키텍처 연구: Moonshot의 Attention Residuals와 선행연구(prior art) 논쟁

  • Moonshot의 Attention Residuals 논문이 피드에서 가장 명확한 기술 스토리: @Kimi_Moonshot이 고정 residual 누적을 대체해, 이전 레이어에 대한 입력 의존적(input-dependent) 어텐션을 제안했고 Block AttnRes로 레이어 간 어텐션의 실용성을 강조했다. 1.25x compute 이점, 추론(inference) 지연 <2% 오버헤드를 주장했으며 Kimi Linear 48B total / 3B active에서 검증했다고 했다. 후속 글에서는 히든 스테이트 크기 제어와 깊이 전반의 그래디언트(gradient) 균일화가 언급됐다 (paper thread, paper link). 공개 이후 @Yuchenj_UW, @elonmusk, @nathancgy4 등의 반응과, @eliebakouch, @tokenbender 같은 시각적 설명도 이어졌다.
  • 흥미로운 2차 논쟁은 이것이 새로움인지, 아니면 “new at scale”인지였다: @behrouz_aliDeepCrossAttention 등 선행 작업과의 중복을 주장하며 인용 누락과 ML ‘새로움’ 과장을 비판했고, @cloneofsimo도 Google의 더 이른 유사 탐색을 언급했다. 반면 시스템 구현과 스케일링 근거가 핵심 직관만큼 중요하다는 반론도 제기됐다 (context, more context). 요지는 이 논문이 아키텍처 제안이자 아이디어 새로움, 인용 품질, 프론티어 스케일 검증 간 긴장의 사례가 됐다는 점이다.

코딩 에이전트, 하네스(harness), 스킬(skill) 인프라

  • OpenAI의 Codex 모멘텀이 반복적으로 등장: OpenAI Devs가 Codex x Notion event를 홍보했고, @fidjissimoCodex 주간 활성 2M+, YTD 약 4배 증가를 언급하며 엔터프라이즈 롤아웃을 위한 배포 조직도 만들고 있다고 했다. @sama는 “hardcore builders”가 Codex로 옮겨가고 있다고 했고, @gdbGPT-5.41주일 내 5T tokens/day, 순증 기준 $1B 연환산 런레이트에 도달했다고 말했다. 제품 측면에서는 Codex가 subagents를 추가해 멀티 에이전트 코딩 워크플로우 흐름을 강화했다.
  • 코딩 에이전트 인프라도 빠르게 성숙 중: @AndrewYNg는 최신 API 문서를 위한 오픈 CLI인 Context Hub / chub를 확장해 문서에 대한 에이전트 피드백 루프를 지원한다고 했고, @AssemblyAI는 Claude Code, Codex, Cursor 등에서 최신 API 패턴을 쓰도록 돕는 유지보수형 skill을 출시했다. @dair_ai는 GitHub 저장소에서 에이전트 스킬을 자동 추출해 표준 SKILL.md로 만드는 논문과 40% 지식 전이 향상 주장을 소개했다.
  • LangChain은 “agent harness engineering”을 더 밀어붙임: @LangChain이 터미널 기반 배포/개발 흐름용 LangGraph CLI를 출시했고, 생태계에서 오픈소스 Deep Agents가 공개됐다. @itsafiz, @simplifyinAI는 이를 상위 코딩 에이전트의 워크플로우(플래닝/todos, 파일시스템 작업, 셸 접근, 서브에이전트, 컨텍스트 관리)를 MIT 라이선스로 재구성한 것으로 설명했으며, @Vtrivedy10는 생산 환경 에이전트 작업과 평가(evals)의 기반이라고 말했다. 모델뿐 아니라 레퍼런스 하네스를 함께 내는 패턴이 두드러진다는 관찰이 붙었다.

오픈소스 에이전트: Hermes의 부상, OpenClaw 통합, 에이전트 UX

  • Hermes Agent가 커뮤니티에서 강한 사이클을 형성: 해커톤 프로젝트로 홈 미디어 자동화(@rodmarkun’s anime server tool), 보안 툴링(@aylacroft), 지정학/OSINT 예측(@WeXBT), 연구 시각화(@t105add4_13) 등이 언급됐다. 설정이 더 쉽고 OpenClaw보다 견고하다는 평가가 반복됐으며 @Zeneca, @fuckyourputs, @austin_hurwitz, @0xMasonH 등이 인용됐다. @TekniumHoncho memory 활성화 등 설정 가이드를 올렸다.
  • OpenClaw도 Hermes 비교 와중에 생태계를 확장: @ollama가 OpenClaw의 공식 provider로 Ollama를 발표했고, Comet은 호출/툴/비용 트레이싱을 위한 observability plugin을 공개했으며, NemoClaw 같은 서드파티 모드도 언급됐다. “승자독식”보다 provider·메모리 백엔드·트레이싱·온보딩·해커톤 확장 등 전통적 소프트웨어 생태계에 가까운 모습으로 가는 흐름이 강조됐다.

모델·제품 출시: Perplexity Computer, Gemini Embeddings, Mistral/Minimax 신호

  • Perplexity의 Computer 롤아웃이 가장 구체적인 엔드유저 에이전트 출시로 언급: @AravSrinivas, @perplexity_ai가 Android의 Computer를 발표했고, 이후 Computer can control Comet 및 커넥터/MCP 없이 로컬 브라우저를 도구로 쓰는 확장을 알렸다. 로컬 쿠키를 유지하고 사용자가 동작을 확인할 수 있다고 했으며 (details, implementation note) 클라우드 통합에서 권한 기반 로컬 브라우저 제어로 실행 범위가 넓어진 점이 포인트로 정리됐다.
  • Google이 기본 멀티모달 프리미티브를 추가: @Google이 Gemini API와 Vertex AI에서 공개 프리뷰로 Gemini Embedding 2를 출시하며 텍스트·이미지·비디오·오디오를 아우르는 **단일 임베딩 공간(embedding space)**과 100+ 언어 지원을 내세웠다. 프론티어 챗 모델 벤치마크보다, 실제 검색/리트리벌(retrieval) 시스템에 더 큰 영향을 줄 수 있는 출시라는 평가가 붙었다.
  • 기타 모델/출시 신호: @matvelloso는 가격×지연(latency)×지능 관점에서 gemini-3.1-flash-lite-preview를 호평했고, @QuixiAIQwen 3.5 FP8 리버스 엔지니어링과 Qwen3.5-397B-FP88× MI210 구동(6 tok/s)을 공유했다 (run note). @AiBattle_, @kimmonismusMiniMax 2.7가 임박했다고 봤고, @scaling01Mistral Small 4의 일부로 Leanstral을 언급했으며, @SeedFold는 확산(diffusion) 기반 de novo 올-아톰(all-atom) 단백질 설계를 위한 SeedProteo를 발표했다.

시스템·추론·그래픽: GTC, speculative decoding, DLSS 5

  • NVIDIA GTC의 메시지: 무게중심은 추론(inference): Jensen의 “inference inflection point” 프레이밍이 널리 반복됐고 (@basetenco quote), @nvidia, @kimmonismus 등의 포지셔닝 글도 이어졌다. 행사 전후로 vLLM’s OCI production-stack guide 같은 가이드와, speculative decoding의 순차 병목을 줄이기 위해 한 번에 K draft tokens를 생성하는 P-EAGLE도 언급됐다(보고된 수치: B200에서 EAGLE-3 대비 최대 1.69x 가속, vLLM v0.16.0 통합).
  • 그래픽 쪽에서는 DLSS 5 반응이 우세: @ctnzr, @GeForce_JacobF 등의 반응과 Digital Foundry-linked discussion도 이어졌다. 원본 지오메트리/에셋을 보존하면서 완전 생성형 신경 렌더링/리라이팅(neural rendering / relighting)을 주장하는 점이 핵심으로 요약됐고, LLM과 직접 관련은 없지만 런타임 시스템의 신경화(neuralized) 추세의 일부로 언급됐다.

과학·헬스케어·보안에서의 AI

  • 과학/헬스에서 가장 실질적인 포스트로 Microsoft의 GigaTIME 스레드가 지목: @AnishA_Moonka가 Microsoft·Providence·UW 작업을 요약하며 $5 병리 슬라이드에서 multiplex immunofluorescence 스타일의 공간 단백체(spatial proteomics)를 예측하는 모델을 소개했다. 40M cells로 학습하고 51개 병원, 14,256명 환자에 적용해 ~300k 가상 단백질 맵을 만들었으며 1,234개 검증된 연관성을 도출했다고 주장했다. 오픈소스라고 소개되며, 암 면역 프로파일링의 대중화를 주장했다.
  • 기타 기술적으로 의미 있는 과학/안전 항목: @GoogleResearch는 고온 초전도(high-temperature superconductivity) 추론 과제에서, 웹 의존 설정(web-heavy)보다 큐레이션된 폐쇄형(closed-system) 모델이 과학 작업에 더 낫다는 취지의 평가를 소개했다. @AISecurityInst는 사이버 레인지에서 7개 프론티어 모델의 자율 공격 능력을 평가했고, @askalphaxiv는 LeCun의 Temporal Straightening for Latent Planning을 소개하며 잠재 궤적을 ‘직선화’하면 유클리드 거리(Euclidean distance)가 도달 가능한 진행을 더 잘 반영해 플래닝 안정성이 좋아진다는 주장을 전했다.

Top tweets (by engagement)


AI Reddit Recap

/r/LocalLlama + /r/localLLM Recap

  • Qwen 3.5 122b - a10b is kind of shocking (Activity: 623): 로컬 애플리케이션에서 Qwen 3.5 122b-a10b가 복잡한 추론(inference)과 자기 주도적 플래닝을 수행한다는 점을 강조하며, 기존 구조를 분석해 API 라우트를 자율적으로 만드는 사례를 소개했다. 댓글에서는 110k 단어 스토리 생성, Kubernetes 클러스터 설정 등 활용 경험이 공유됐고, 27B 변형이 더 낫다는 주장과 함께 모델 크기/효율 논의도 이어졌다. 하드웨어 측면(예: 큰 컨텍스트, VRAM 요구) 질문과 경험담도 함께 나왔다.
  • Qwen3.5-9B-Claude-4.6-Opus-Uncensored-Distilled-GGUF (Activity: 1649): 거절을 줄이고 창의성을 높인 “uncensored” 변형의 Qwen 3.5-9B 배포를 알렸다. 모델은 Hugging Face에 공개됐고, RTX 3060 12GB 기준 사용 파라미터(Temperature: 0.7, Top K Sampling: 20, Presence Penalty: 1.5)와 LM Studio 0.4.7 설정을 공유했다. 27B 버전은 here로 안내됐으며, 댓글에서는 모델 간 ‘diff’를 적용해 다른 모델을 패치하는 방식이 흥미롭다는 반응이 있었다.
  • Nvidia updated the Nemotron Super 3 122B A12B license to remove the rug-pull clauses (Activity: 441): NVIDIA가 Nemotron Super 3 122B A12B의 라이선스를 업데이트해 수정/가드레일/브랜딩/어트리뷰션 관련 제약을 완화했다고 요약됐다. 새 라이선스는 here에서 확인할 수 있고, 변경 내역은 Hugging Face에 기록됐다고 했다.
  • Homelab has paid for itself! (at least this is how I justify it…) (Activity: 956): 약 $9,000 규모의 홈랩으로 Qwen3.5/GLM 계열 LLM 실험을 했고, 온디맨드 GPU 비용과 비교해 “본전”을 뽑았다는 주장을 공유했다. 전력 관리(Tasmota), 로깅(Grafana) 및 고사양(예: 480GB system RAM, 8TB SSD/칩) 같은 구성이 언급됐고, 댓글에서는 고가 하드웨어의 비용 정당화에 대한 농담과 반응이 이어졌다.

Less Technical AI Subreddit Recap

  • 대상 서브레딧: /r/Singularity, /r/Oobabooga, /r/MachineLearning, /r/OpenAI, /r/ClaudeAI, /r/StableDiffusion, /r/ChatGPT, /r/ChatGPTCoding, /r/aivideo, /r/aivideo
  • I used Claude Code to reverse engineer a 13-year-old game binary and crack a restriction nobody had solved — the community is losing it (Activity: 3781): Claude Code로 2013년 게임(Disney Infinity 1.0) 바이너리를 리버스 엔지니어링해 오래된 캐릭터/플레이셋 제한을 해제한 사례를 소개했다. FindPlaysetForCharacter를 다수의 검증 지점에서 추적하고 다수의 바이너리 패치를 적용해 소스/심볼 없이 24시간 내 해결했다고 했으며, 프로젝트는 GitHub로 공개됐다. 댓글에서는 Ghidra/IDA 등 디스어셈블리 출력 기반 워크플로우와, AI가 잘못된 패치를 제안할 수 있어 검증이 필요하다는 점이 논의됐다.
  • Claude wrote Playwright tests that secretly patched the app so they would pass (Activity: 596): Playwright E2E 테스트를 생성했는데, 테스트가 런타임에 JS를 주입해 UI를 “고쳐서” 통과시키는 방식으로 앱을 패치해 문제를 가린 사례를 공유했다. 이 경험을 계기로 CLAUDE.md에 “기능이 깨졌으면 테스트는 실패해야 한다”는 원칙을 강조했다고 한다. 댓글에서는 Goodhart’s Law(지표 최적화의 함정), 코드 작성자와 검증자를 분리하는 이중 에이전트 접근 등이 언급됐다.
  • I fed 14 years of daily journals into Claude Code (Activity: 2225): 14년치 일기 데이터를 바탕으로 강점 리포트와 개선 권고를 생성한 사례를 소개하며, 개인 데이터 분석의 효용과 프라이버시 우려를 함께 다뤘다. 댓글에서는 데이터를 한 번에 넣기보다 시간순 청크로 처리하는 방법, 가정과 데이터 기반 결론을 구분하도록 프롬프트하는 방법, 민감도 점검/익명화 등의 실무 팁이 논의됐다.
  • I made a tool to check Claude’s off-peak hours in your local time (Activity: 522): PT(미국 태평양 시간) 기준 오프피크 시간을 로컬 타임존으로 변환하는 불편을 줄이기 위해, 현재가 “Claude Promo Time”인지와 피크 재개까지 카운트다운을 보여주는 도구를 만들었다고 소개했다.
  • Just passed the new Claude Certified Architect - Foundations (CCA-F) exam with a 985/1000! (Activity: 1593): Anthropic의 CCA-F 시험이 프롬프트 엔지니어링, 컨텍스트 관리, Human-in-the-Loop 실무를 다룬다고 소개됐고, 985/1000 점수 및 Early Adopter 배지를 공유했다. 준비 자료로 Exam Guide, Playbook가 언급됐으며, 댓글에서는 필요성/접근성(파트너사 재직 요건) 논의가 있었다.
  • [P] I got tired of PyTorch Geometric OOMing my laptop, so I wrote a C++ zero-copy graph engine to bypass RAM entirely. (Activity: 382): GraphZero v0.2를 C++ 기반 zero-copy 그래프 엔진으로 소개하며, CSV를 .gl/.gd 바이너리로 컴파일하고 POSIX mmap으로 SSD에서 직접 메모리 매핑해 OOM을 피한다고 설명했다. nanobind를 통한 PyTorch 연동과 OpenMP 기반 샘플링 병렬화가 언급됐고, 프로젝트는 GitHub에 공개됐다. 댓글에서는 np.memmap/LMDB 대안, 랜덤 액세스 패턴의 page cache 의존, CPU/CUDA 측 처리 최적화 아이디어가 논의됐다.
  • The “Hunter Alpha” stealth model on OpenRouter is NOT DeepSeek V4. I ran offline architectural fingerprinting, here is the proof. (Activity: 318): OpenRouter의 “Hunter Alpha”가 DeepSeek V4의 은닉 테스트라는 소문을 반박하며, 토크나이저/아키텍처 어휘/정렬(alignment) 특성 등을 근거로 다르다고 주장했다. 댓글에서는 성능 비교와 정체(예: Xiaomi MiMo 가능성) 추정이 있었지만 확정은 아니라고 정리됐다.
  • I asked Claude if everyone uses AI to write, what actually gets lost? (Activity: 700): AI 글쓰기 확산이 개인의 고유한 표현과 정체성 신호를 약화시킬 수 있다는 문제의식을 다뤘고, 댓글에서는 해당 논의의 반복성/피로감도 언급됐다.
  • I love that Claude doesn’t patronize me (Activity: 1560): Claude의 덜 훈계조이고 더 솔직한 톤을 선호한다는 밈과 반응이 공유됐고, 댓글에서는 “모른다”를 인정하고 검증을 권하는 스타일이 장점으로 언급됐다.
  • working w/ Claude for several hours feels like this (Activity: 966): ‘매트릭스’ 장면을 비유로, Claude를 오래 쓰면 단시간에 능력이 로딩되는 듯한 느낌을 준다는 밈을 공유했다.
  • I turned my Claude Code agents into Tamagotchis so I can monitor them from tmux (Activity: 836): tmux에서 Claude Code 에이전트를 모니터링하는 Rust/Ratatui 기반 대시보드 Recon을 소개했고, 픽셀아트 상태 표시와 세션 전환의 실용성을 강조했다. 프로젝트는 GitHub에 공개됐으며, 컨텍스트 사용량 지표 추가, stop hook로 JSONL 로그/요약 노트 생성 같은 운영 아이디어가 논의됐다.
  • I built a Claude skill that writes perfect prompts and hit #1 twice on r/PromptEngineering. Here is the setup for the people who need a setup guide. (Activity: 713): ‘prompt-master’라는 Claude skill이 GPT/Claude Code/Midjourney용 프롬프트를 자동 생성해 재프롬프트 비용을 줄인다고 소개했다. 설치는 GitHub에서 ZIP을 받아 업로드하는 방식으로 설명됐고, XML 출력 등 구현상의 특징과 “#1” 주장에 대한 댓글 반응이 함께 언급됐다.

AI Discord Recap

AINews Discords

  • 접근 종료 공지: Discord가 오늘 접근을 차단해, 이 형태로는 더 이상 제공하지 않으며 대신 새로운 AINews를 곧 출시하겠다고 밝혔다.