오늘의 요약
- Cursor가 Composer 2 코딩 모델 공개
- OpenAI, Astral 팀을 Codex에 합류
- LangChain, LangSmith Fleet 엔터프라이즈 출시
- MiniMax M2.7, 에이전트 지향 모델 강조
- Qwen 3.5 Max, late-interaction 검색 성과
Cursor가 Composer 2 코딩 모델 공개
헤드라인: Cursor가 Composer 2 코딩 모델 공개
Cursor가 Composer 2를 공개하며 “프런티어급(frontier-class)” 코딩 모델을 표방했고, 대폭적인 비용 절감을 함께 내세웠다. 품질 향상은 더 강한 베이스 모델을 만든 뒤 강화학습(RL)에 투입한 지속 사전학습(continued pretraining) 결과라고 설명됐으며, 가격/성능(price/perf)과 벤치마크 경쟁력에 대한 반응이 빠르게 이어졌다. 또한 에이전트 네이티브(agent-native) UX로 수렴할 수 있다는 전망과 함께, 전 세계 3–4개 클러스터 분산 학습 등 학습·인프라 스토리도 주목을 받았다.
참고 링크: 544 Twitters · AINews’ website · AINews is now a section of Latent Space · opt in/out
AI Twitter Recap
AI 코딩 에이전트, 개발자 툴링, IDE 주도권 경쟁
-
Cursor의 Composer 2는 이날 가장 큰 개발자-모델 출시로 보인다: @cursor_ai가 Composer 2를 공개하며, 큰 폭의 비용 절감을 동반한 프런티어급 코딩 모델로 포지셔닝했다. Cursor는 품질 향상이 더 강한 베이스를 RL에 “주입”한 첫 continued pretraining 런 덕분이라고 밝혔다 (details). 제3자 반응은 가격/성능과 벤치마크 경쟁력을 함께 강조했다: @kimmonismus는 $0.50/M input과 $2.50/M output 가격, 그리고 CursorBench 61.3, Terminal-Bench 2.0 61.7, SWE-bench Multilingual 73.7 점수를 언급했다; @mntruell은 Cursor를 API 모델과 **도메인 특화 사내 모델(domain-specific in-house models)**을 결합하는 새로운 유형의 회사로 설명했다. 이번 출시에는 Glass의 early alpha UI도 포함됐고, @theo는 업계가 더 에이전트 네이티브 UX로 수렴할 가능성을 언급했다. 여러 엔지니어는 학습/인프라 측면도 짚었다: @ellev3n11은 RL 런이 전 세계 3–4개 클러스터로 분산됐다고 했고, @amanrsanger은 약 40명 규모 팀이 소프트웨어 엔지니어링 작업에만 전념하고 있다고 말했다.
-
OpenAI는 Astral로 ‘아래 스택(down-stack)’을 강화, Anthropic은 Claude Code의 접점을 확장: @charliermarsh는 uv, ruff, ty 팀인 Astral이 OpenAI의 Codex 팀에 합류한다고 발표했고, @gdb는 OpenAI 측에서 거래를 확인했다. 이 인수는 OpenAI가 핵심 파이썬 툴링을 소유함으로써 개발자 플랫폼의 해자(moat)를 강화하려는 움직임으로 널리 해석됐다; 관련 반응으로 @Yuchenj_UW와 Simon Willison’s commentary를 참고하라는 흐름도 있었다. 한편 Anthropic은 메시징 앱을 통해 상호작용할 수 있도록 Claude Code에 channels를 추가하며(리서치 프리뷰부터 시작) 표면적(suface area)을 넓혔다 (announcement, docs). 제품 방향성 측면에서, OpenAI와 Anthropic 모두 “모델 API”를 넘어 지속적인 개발자 워크플로우와 주변형(ambient) 에이전트 접근으로 밀고 나가고 있다는 점이 눈에 띈다.
에이전트·멀티에이전트 런타임·엔터프라이즈 제어 플레인
-
무게중심이 단일 에이전트에서 ‘관리되는 플릿(fleet)·런타임·에이전트 OS’로 이동 중: @LangChain은 메모리, 툴, 권한, 채널 통합을 갖춘 **에이전트 플릿(fleet)**을 만들고 관리하는 엔터프라이즈 워크스페이스 LangSmith Fleet을 공개했다. 출시에서 반복된 주제는 에이전트 아이덴티티, 자격증명(credential) 관리, 공유 제어, Slack 노출, 감사 가능성(auditability) 등이었다 (overview, additional framing). 이는 “에이전트”가 단독으로는 유효한 추상화가 아니게 됐다는 더 넓은 담론과 맞닿아 있다: @YuvalinTheDeep은 적절한 은유가 작업·자원·실행 컨텍스트를 배분하는 **AI 운영체제(AI operating system)**라고 주장했다. 보완적인 출시들도 이런 스택 관점을 강화했다: @cognition은 Devin이 일을 분해해 별도 VM의 병렬 Devins에 위임하는 teams of Devins를 추가했고, @lvwerra는 코드·검색·멀티모달 전문가를 조율하는 멀티에이전트 인터페이스 AgentUI를 공개했으며, @hrishioa는 장기 지평(long-horizon) 에이전트 작업에는 체크포인팅(checkpointing), 롤백(rollback), 공급자별 하네스 전환(provider-specific harness switching), 실행 복구(execution repair)를 갖춘 전용 런타임이 필요하다고 주장했다.
-
보안과 권한은 에이전트 시스템의 1급 제약조건으로 부상: 반복적으로 나온 스레드는, 프로덕션에서 에이전트를 배포할 때 병목이 “모델이 할 수 있나?”보다 권한(permissions), 블라스트 레디우스(blast radius) 제어, 관측가능성(observability)에 더 가깝다는 점이었다. @swyx는 AI 보안에서 **아이덴티티 기반 인가(identity-based authorization)**가 새로운 합의로 떠오르고 있다고 강조했고, @baseten은 NVIDIA의 NemoClaw를 OpenClaw류 안전 우려에 대한 해법으로 소개하며 기본값은 권한 0(zero permissions by default), 샌드박스된 서브에이전트, 인프라 강제형(private inference) 추론을 언급했다. LangChain의 Fleet 출시 역시 권한 부여(permissioning)와 감사 추적(audit trail)을 강하게 강조했다. 결론적으로 에이전트 스택은 챗봇 래퍼가 아니라 엔터프라이즈 소프트웨어 인프라에 더 가까운 형태로 성숙해지고 있다.
모델 출시·벤치마크·검색/추론 결과
-
MiniMax M2.7은 ‘프런티어 거대 모델’보다 실용적 에이전트 모델로 포지셔닝되는 분위기: MiniMax는 OpenClaw와 함께 자기 진화(self-evolution) 및 100,000 running clusters 인프라를 다루는 더 깊은 기술 라이브스트림을 예고했고 (announcement), 초기 사용 보고는 향상된 감성 지능, 캐릭터 일관성, 강한 에이전트 워크플로우를 강조했다 (MiniMax note). 더 기술적인 제3자 평가는 ZhihuFrontier에서 나왔는데, M2.7이 전체 성능은 이전 세대와 대체로 비슷하지만 지시 따르기(instruction following), 컨텍스트 환각(context hallucination) 처리, 대규모 코드 / 다회차 대화 행동을 업그레이드했으며, 다만 hard reasoning은 다소 악화되고 토큰 소모가 늘었다고 했다. 통합도 즉각 진행됐다: @Teknium은 M2.7을 Hermes Agent에 추가했고, 일부 워크플로우에서는 OpenClaw보다 장기 실행 에이전트 동작이 더 낫다는 사용자 보고도 있었다 (example).
-
Qwen 3.5 Max Preview와 ‘검색(retrieval) 중심’ 시스템이 리더보드에서 눈에 띄는 상승을 기록: @arena는 Qwen 3.5 Max Preview가 Math #3, Arena Expert Top 10, 전체 Top 15에 올랐다고 했고, 텍스트·라이팅·수학에서 이전 Max 변형 대비 큰 폭의 개선을 강조했다 (breakdown); @Alibaba_Qwen은 추가 최적화가 더 올 것이라고 확인했다. 한편 기술적으로 특히 흥미로운 결과 군집은 late interaction retrieval(지연 상호작용 검색) 주변에서 나왔다: @antoine_chaffin은 Reason-ModernColBERT를 사용하는 BrowseComp-Plus가 이제 90% solved에 근접했다고 주장했는데, 이는 150M 모델이 딥 리서치형 검색에서 최대 54× 더 큰 시스템을 능가했다는 내용이다. @lateinteraction 등 후속 논의에서는 이것이 일회성 결과가 아니라, 추론 집약적 검색에서 멀티벡터 / late-interaction 방식이 단일 벡터(dense single-vector) 방식보다 체계적으로 우수하다는 또 하나의 강한 신호라고 주장했다.
멀티모달·OCR·문서 파싱·크리에이티브 툴
-
문서/OCR 툴링이 강하게 출하: 모델 기반과 비모델(model-free) 접근이 함께 확장: @nathanhabib1011은 Chandra OCR 2를 SOTA OCR 릴리스로 소개하며 olmOCR bench 85.9%, 90+ languages, 4B 파라미터, 손글씨·수학·폼·표·이미지 캡션 추출 지원을 언급했다. 별도로 @skalskip92은 GLM-OCR 0.9B를 작은 OCR 모델로 소개하며 OCR 벤치마크에서 Gemini를 이겼다는 주장도 전했다. 파싱(parsing) 쪽에서는 LlamaIndex가 LiteParse를 오픈소스로 공개했다. 이는 PDF, Office 문서, 이미지를 로컬에서 레이아웃 인지(layout-aware)로 파싱하며, 파이썬 의존성 0(zero Python dependencies), 내장 OCR 옵션, 공간 레이아웃 보존, 에이전트 파이프라인(agent pipelines) 타깃을 강조했다 (launch, expanded post). 어려운 페이지를 위한 고성능 OCR/VLM과, 일반적인 경우를 위한 경량 로컬 파서로 스택이 분화되는 모습이 유용하게 보인다.
-
이미지/비디오와 월드모델(world-model) 가속은 계속되지만, 핵심은 지연시간(latency)과 배포 용이성(deployability): Google은 AI Studio의 “vibe coding” 경험을 크게 업그레이드하며 새로운 코딩 에이전트 Antigravity와 Firebase 통합을 추가했다. 멀티플레이 앱, 백엔드 서비스, 인증(auth), 지속 빌드(persistent builds)를 가능하게 한다는 내용이다 (Google AI Studio post, Google summary). 이미지 분야에서는 Microsoft가 MAI-Image-2를 공개했는데, Image Arena에서 #5로 데뷔했고 MAI-Image-1 대비 특히 텍스트 렌더링과 **인물(portraits)**에서 큰 향상을 보였다고 한다 (arena ranking, Microsoft announcement). 비전/비디오 이해 측면에서는 @skalskip92가 VLM에서 바로 포인트 기반 다중 객체 추적을 수행하는 MolmoPoint를 시연했는데, 이는 SAM 같은 세그먼테이션-우선 접근과 구별된다. 그리고 @kimmonismus는 시스템 관점에서, 생성 미디어에서 프롬프트→출력 루프가 100ms 미만인 것이 실제 프로덕션 워크플로우에서는 모델 품질 자체보다 더 중요할 수 있다는 포인트를 던졌다.
학습·아키텍처·추론·시스템 연구
-
지속 사전학습(continued pretraining)과 RL 환경 품질이 다시 핵심 경쟁 레버로 부상: Composer 2 팀은 RL 이전 continued pretraining이 성능 향상의 원인이라고 명시적으로 언급했고 (Cursor), 여러 연구자는 특화 모델에서 이 패턴이 더 흔해질 것이라고 주장했다 (@code_star, @cwolferesearch). 또한 @pratyushmaini는 **“Finetuner’s Fallacy”**를 소개했는데, 초기 학습 데이터가 모델 표현(representations)에 오래 남는 흔적을 남겨 이후 미세조정(fine-tuning)으로는 되돌리기 어렵다는 주장이다. 시스템 측면에서는 @skypilot_org가 K8s GPU 클러스터에서 Karpathy 스타일의 autoresearch를 스케일링해, 순차 실행으로는 ~96개가 한계인 실험을 8시간에 ~910개 수행했다고 한다. 인프라가 자동화 연구 루프의 형태 자체를 바꾸는 사례로 읽힌다.
-
표준 트랜스포머(transformer) 밖의 아키텍처 탐색도 여전히 활발: @MayankMish98는 확장 가능한 언어 모델링을 위해 **행렬 값 상태(matrix-valued states)**의 **비선형 순환(non-linear recurrence)**을 재방문하는 M²RNN을 공개했고, @tri_dao는 비선형 RNN 레이어가 어텐션(attention)이나 선형 SSM과는 다른 무언가를 더하는 것처럼 보인다고 언급했다. NVIDIA의 Nemotron 3 스택도 주목을 받았는데, Transformer + Mamba 2 혼합, MoE/LatentMoE, multi-token prediction, NVFP4 정밀도를 결합해 낮은 추론 비용과 장문 컨텍스트 에이전트 워크로드를 겨냥한다는 요지였다 (summary). 인프라 레이어에서는 @rachpradhan가 TurboAPI가 150k req/s에 도달했으며 하루 최적화로 FastAPI 대비 22× 처리량을 주장했고, @baseten는 대형 모델 콜드 스타트(cold start)를 2–3× 줄이기 위한 Baseten Delivery Network를 공개했다.
참여도 기준 Top tweets
- OpenAI acquires Astral: @charliermarsh가 Astral의 OpenAI Codex 팀 합류를 발표했는데, AI 연구소들이 코어 개발자 툴링의 소유권을 전략적으로 본다는 가장 분명한 신호 중 하나로 읽혔다.
- Cursor Composer 2 launch: @cursor_ai의 참여도가 가장 높았던 기술 제품 출시였고, 코딩 모델의 가격/성능 경쟁이 얼마나 중심이 됐는지를 반영했다.
- Google AI Studio’s upgraded vibe coding stack: @GoogleAIStudio와 @OfficialLoganK가 지속 빌드, 멀티플레이, 백엔드 통합을 포함한 풀스택 앱 생성에 대한 높은 관심을 이끌었다.
- LlamaIndex LiteParse: @jerryjliu0가 큰 반향을 얻었고, 에이전트 파이프라인을 위한 실용적인 로컬-퍼스트 파싱 인프라 수요가 계속된다는 신호로 보였다.
- Late interaction retrieval on BrowseComp-Plus: @antoine_chaffin가 그날의 중요한 벤치마크 결과 중 하나를 게시했는데, 150M late-interaction retriever가 난이도 높은 딥 리서치 벤치마크를 **90%**에 가깝게 밀어올렸다는 내용이었다.
AI Reddit Recap
/r/LocalLlama + /r/localLLM
-
MiniMax-M2.7 Announced! (Activity: 1078): 이미지가 새로 발표된 MiniMax-M2.7 모델을 M2.5, Gemini 31 Pro, Sonnet 4.6, Opus 4.6, GPT 5.4 등과 함께 SWE Bench Pro, VIBE-Pro, MM-ClawBench 같은 벤치마크에서 비교 분석한다는 내용이다. MiniMax-M2.7은 빨간색으로 강조되어 여러 항목에서 우수한 성능을 보이는 것으로 표시된다. 개발 측면에서는 분석→계획→수정→평가의 반복 사이클로 성능을 최적화하는 자율 반복(autonomous iteration)을 강조하며, 내부 평가 세트에서
30% performance improvement를 달성했다고 한다. 샘플링 파라미터 최적화와 워크플로우 가이드라인 강화 등은 완전 자동화된 AI 자기 진화로의 전환을 시사한다. 댓글에서는 벤치마크 성과와 실사용성 간 괴리를 지적하거나, 릴리스 속도 자체를 농담 섞어 놀라워하는 반응도 있었다. 댓글 요약: Recoil42는 자율 반복 능력과 내부30%개선을 강조했고, Specialist_Sun_7819는 훈련 분포 밖 과제에서의 실사용 검증 필요성을 제기했으며, Lowkey_LokiSN은 이전 M2.5의 UD-Q4_K_XL 변형 문제를 언급하며 양자화(quantization) 저항성 개선 여부를 우려했다. -
Omnicoder-Claude-4.6-Opus-Uncensored-GGUF (Activity: 397): 게시물은 DataClaw 데이터셋 기반의 실제 Claude Code / Codex 세션으로 만든 OmniClaw 모델을 소개하며, Hugging Face에서 제공된다고 한다. 또한 Claude Opus로 증류(distill)된 Omnicoder 모델과 창작 글쓰기용 OmniRP 모델도 함께 제시된다. 모두 언센서드(uncensored)이며, 다른 양자화에서 품질 문제가 있어
Q8_0양자화를 사용한다고 주장한다. 모델 머지(merge)는 Pastebin에 있는 파이썬 스크립트로 수행됐고, 호환성을 위해 GGUF 헤더와 메타데이터를 유지했다고 한다. Omnicoder는 Jackrong/HauhauCS의 Qwen 3.5 9B, Tesslate의 Omnicoder, Bartowski의 Qwen 3.5-9B 등을 기반으로 여러 모델을 병합했다고 설명하며, 소형 9B Qwen 3.5 9B 아키텍처에서 **Uncensored General Intelligence (UGI)**의 최선이라고 주장한다. 댓글에서는 Aider 벤치마크 결과를 들어 성능·효율에 회의적인 반응도 있었다. 댓글 요약: grumd는 Aider 225문제에서 Qwen3.5 35B-A3B의26.7% pass@1/54.7% pass@2(문제당95 seconds)와 비교해 Omnicoder 9B가5.3% pass@1/29.3% pass@2(문제당402 seconds)로 격차가 크다고 했고, Claude 증류가 해결책이 될지 회의적이라며 추가 비교를 기대했으며, jack-in-the-sack은 Claude Code를 Omnicoder로 대체 가능한지 물었다. -
My company just handed me a 2x H200 (282GB VRAM) rig. Help me pick the “Intelligence” ceiling. (Activity: 854): 사용자는 듀얼 Nvidia H200(각
141GB HBM3e, 총282GB VRAM) 서버를 받고, 로컬 코딩 작업(완성, 생성, 리뷰 등)을 위한 LLM을 테스트해야 한다고 한다. 제안 중 하나는vLLM을 사용해Q4양자화의 Qwen 3.5 397B를 구동하는 것으로, 동시 요청이 많은 환경에서 배치 추론(batched inference)이 중요하다는 관점이다. 반대로ollama나llama.cpp는 배치 처리에 취약하다는 이유로 피하라는 권고가 나오고, 다중 사용자 환경에서vLLM또는sglang가 더 안정적이라는 의견이 제시된다. 댓글에서는 목표를 명확히 정의해 하드웨어 접근 권한을 유지하라는 조언,ollama의 불안정 경험 공유, 컨텍스트 윈도우 확보를 위해 VRAM을 꽉 채우지 말라는 경고 등이 나왔다. 댓글 요약: Zyj는Qwen 3.5 397B+vLLM을 추천했고, TUBlender는 동시성 환경에서ollama/llama.cpp를 피하고vllm/sglang를 권했으며, Mikolai007은 VRAM 포화 대신 컨텍스트 여유를 강조하며Minimax M2.5와Qwen 3.5를 “최적”으로 언급하고GLM 5(800b)는 너무 크다고 했다. -
Two weeks ago, I posted here to see if people would be interested in an open-source local AI 3D model generator (Activity: 366): 이미지를 기반으로 3D 메쉬(mesh)를 생성하는 오픈소스 데스크톱 앱의 베타 버전을 소개한다. 현재는 Hunyuan3D 2 Mini 모델을 지원하며, 확장(extension) 시스템 중심의 모듈형 구조라고 한다. 개발자는 기능, 파일 내보내기 확장, 추가 모델 지원에 대한 피드백을 요청했고, GitHub 저장소는 here로 안내된다. 댓글에서는 멀티 이미지 입력, 텍스트 기반 편집, 체크포인트 저장,
glTF같은 포맷 지원, Trellis 2 지원, 비CUDA 환경을 위한ggml백엔드, 텍스처 생성 및 기본 편집 툴 등이 제안됐다. 댓글 요약: New_Comfortable7240는 채팅 기반 반복 편집·체크포인트·glTF 호환(healing) 등 광범위한 기능 세트를 제안했고, Nota_ReAlperson은 Trellis 2 지원과 비CUDA용ggml백엔드를 제안했으며, ArtifartX는 커스텀 메쉬 임포트·텍스처 생성·기본 브러시/블렌딩과 함께 OBJ/FBX/GLTF/USD 같은 주요 포맷 위주로 집중하라고 조언했다.
Less Technical Subreddits
대상 서브레딧: /r/Singularity, /r/Oobabooga, /r/MachineLearning, /r/OpenAI, /r/ClaudeAI, /r/StableDiffusion, /r/ChatGPT, /r/ChatGPTCoding, /r/aivideo, /r/aivideo
-
Harmonic unleashes Aristotle, the world’s first formal mathematician agent for free (Activity: 446): 이미지가 Harmonic의 “Aristotle Agent” 출시를 알리며, 세계 최초의 자율 수학자 에이전트로서 무료 제공된다고 주장한다. 이 에이전트는 복잡한 수학 문제를 풀고 형식화(formalize)할 수 있으며, 증명을 형식 검증(formal verification)으로 확인해 사람 개입 없이도 정합성을 보장한다는 점이 특징으로 강조된다. 이는 자연어로 증명을 생성할 수 있으나 오류 가능성이 있는 다른 시스템들과 대비되며, DeepMind의 AlphaProof가 여전히 비공개(proprietary)라는 언급도 함께 나온다. Erdős 문제 해결 시도와 연결됐다는 맥락도 있다. 댓글에서는 Lean 증명 기반의 “정확성 보장”이 핵심 가치라는 평가와, 교과서 수준을 넘어 미해결 난제(open problems)까지 다룰 수 있는지에 대한 궁금증, 무료 유지와 책임 있는 사용에 대한 기대가 나왔다. 댓글 요약: ikkiho는 Lean 기반 형식 증명이 검증 부담을 줄인다고 강조했고, 같은 사용자가 난제 적용 여부를 물었으며, omegahustle은 무료 유지와 책임 있는 활용을 바랐다.
-
A new version of the Gemini app was just released. (Activity: 425): 이미지가 Google Gemini 앱 업데이트(버전
1.2026.1062300)를 알리며, 미국(US) 무료 사용자에게 ‘Personal Intelligence’ 기능을 제공한다고 한다. 이는 Google 앱 전반의 연결성을 높여 개인화 응답을 제공하는 것을 목표로 하며, UI 개선과 버그 픽스, 다운로드 크기196.2 MB같은 변경도 포함된다고 요약된다. 댓글에서는 개인정보/프라이버시 우려(특히 개인 데이터 연결에 따른 정부 접근 가능성 등)와, Gemini 앱의 필요성 자체에 대한 회의가 나타났다. 댓글 요약: Technical_Train_9821는 데이터 연결의 프라이버시 위험을 우려했고, brandeded는 이메일 기반 캘린더 생성, 거래 내역 검색, Drive 정보 조회 등 실사용 시나리오를 들며 유용성을 설명했다. -
Basically Official: Qwen Image 2.0 Not Open-Sourcing (Activity: 495): Reddit 게시물의 이미지는 Alibaba의 차세대 이미지 생성 모델 Qwen-Image-2.0 출시를 알린다. Qwen 리서치 페이지에서 처음에는 “Open-Source”로 표시됐지만, 이후 “Release”로 재분류되며 오픈소스가 아니라는 신호로 해석된다는 내용이다. 이는 내부 엔지니어 이탈과, 오픈소스 모델의 수익화 문제로 인한 전략 변화와 맞물린다는 설명이 덧붙는다. 모델 특징으로는 전문 타이포그래피(typography) 렌더링,
1k-token지시 지원, 네이티브2K해상도 등이 언급되며, 인포그래픽·코믹 제작을 겨냥한다고 한다. 댓글에서는 비공개(closed-source)일 경우 가치가 떨어진다는 실망, 수익 압박이 오픈소스 중단을 촉발했다는 맥락, 연간 대형 모델 릴리스 수가 실제로는 2–3개 수준이라는 시각 등이 나왔다. 댓글 요약: Skystunt는 UI 성숙도와 프라이버시 관점에서 폐쇄형이면 매력이 약해진다고 했고, BreakingGood은 CEO의 수익 불만이 전략 전환과 인력 변화를 촉발했다고 설명했으며, LeKhang98은 “릴리스가 많다”는 인식과 실제 빈도 간 차이를 언급했다. -
An Australian ML researcher, used ChatGPT+AlphaFold to shrink 75% of his life-threatened dog’s MCT cancerous tumor, developing a personalized mRNA vaccine in just two months - after sequencing his dog’s DNA for $2,000 (Activity: 498): 호주 머신러닝 연구자 Paul Conyngham이 ChatGPT와 AlphaFold를 활용해 반려견 Rosie의 위협적인 비만세포종(MCT) 종양을 대상으로 개인 맞춤 mRNA 백신을 개발했고, 2개월 안에 종양을
75%줄였다는 사례를 다룬다. 종양 DNA 시퀀싱 비용은 약$2,000로 제시되며, Conyngham은 ChatGPT로 네오안티젠(neoantigens)을 식별하고 AlphaFold로 단백질 구조를 예측했다고 한다. 또한 UNSW의 Martin Smith(유전체 시퀀싱) 및 Pall Thordarson(mRNA 합성)과의 협업이 언급되며, 생물·의학 정규 교육 배경이 없었다는 점도 강조된다. AI가 개인 맞춤 의학과 신속한 백신 개발에 미칠 잠재력을 시사한다는 설명과 함께 출처가 제시된다 (source). 댓글에서는 의료 민주화의 변곡점인지 과장인지에 대한 논쟁과, 규제 장벽이 의료 발전을 늦춘다는 주장, 자가실험 위험에 대한 우려가 나왔다. 댓글 요약: DepartmentDapper9823는 규제가 발전을 막을 수 있다고 주장했고, AngleAccomplished865는 전문가 의견을 요청했으며, 682463435465는 사람이 스스로 따라 하려는 위험을 우려했다. -
Built an open source tool that can find precise coordinates of any picture (Activity: 837): 대학생이 만든 오픈소스 도구 Netryx를 소개한다. 거리 사진(street-level photos)에서 시각적 단서를 이용해 정확한 지리 좌표를 추정하는 커스텀 ML 파이프라인 기반이며, 개발자·기업과의 연결을 목표로 한다고 한다. 도구는 GitHub에서 제공되며, 카타르 공습(Qatar strikes) 같은 이벤트를 지오로케이트하는 커스텀 웹 버전 데모가 언급된다(핵심 파이프라인은 동일). 댓글에서는 유익할 수도 해로울 수도 있는 양면성, Google Street View 같은 기존 데이터 소스 의존 여부에 대한 궁금증이 나왔다.
-
I built a Claude skill that writes accurate prompts for any AI tool. To stop burning credits on bad prompts. We just hit 600 stars on GitHub‼️ (Activity: 728):
prompt-master를 Claude skill로 소개하며, 다양한 AI 툴의 프롬프트를 최적화해 GitHub에서600 stars를 넘겼다고 한다. 입력에서9 dimensions를 추출하고35 common prompt issues를 식별하는 전략 등으로 프롬프트 정확도와 비용 효율을 높인다고 설명한다. Claude, ChatGPT, Midjourney, Eleven Labs 등 광범위한 플랫폼을 지원하며 오픈소스로 커뮤니티 개선을 받는다고 한다. 최신 버전은v1.4이고v1.5는 에이전트 기반 개선을 계획 중이라고 하며, 저장소 링크가 함께 제시된다 (GitHub Repository). 댓글에서는 툴별 라우팅(tool-specific routing)이 핵심 차별점이라는 평가, 오픈소스 모델/로컬 실행 호환성 질문, Cursor와 Claude Code 같은 툴 간 프롬프트 차이를 자동으로 다뤄줄 수 있는지에 대한 관심이 나왔다. -
I got tired of manually prompting every single clip for my AI music videos, so I built a 100% local open-source (LTX Video desktop + Gradio) app to automate it, meet - Synesthesia (Activity: 306): Synesthesia는 로컬 LLM(예:
Qwen3.5-9b)과 연동해 AI 음악 비디오 제작을 자동화하는 오픈소스 앱이라고 소개된다. 입력은 보컬 분리 스템, 밴드 연주 전체, 가사 텍스트의 3개 파일이며, 보컬/스토리 세그먼트를 번갈아 구성하는 쇼트 리스트(shot list)를 만든다. 앱은 LTX-Desktop과 인터페이스하며,5090GPU에서540p로 3분짜리 비디오를 1차 렌더 기준 1시간 이내에 만든다고 한다. 사용자는 쇼트 리스트를 수동 조정하거나 자동 실행할 수 있고, 쇼트별 여러 take를 고른 뒤 최종 편집할 수 있다. 프로젝트는 GitHub에 있다. 댓글에서는 일관된 캐릭터를 위한 LoRA 지원 제안, 다른 하드웨어/소프트웨어 조합(Wan2GP의 LTX2 등) 호환성 질문, 스타일 드롭다운(클레이메이션/퍼펫/CGI 등) 같은 UX 개선 제안, 수동 프롬프팅의 창작성을 대체할 수 없다는 비판 등이 나왔다. 댓글 요약: Loose_Object_8311는 LoRA 지원을, InternationalBid831는 LTX Desktop 대신 LTX2 호환을, Diadra_Underwood는 스타일 드롭다운을 제안했다. -
The dictionaries are suing OpenAI for “massive” copyright infringement, and say ChatGPT is starving publishers of revenue (Activity: 718): Britannica와 Merriam-Webster가 뉴욕 남부지방법원(SDNY)에 OpenAI를 상대로 소송을 제기해, OpenAI의 ChatGPT가 조사·편집된 콘텐츠를 무단으로 사용해 저작권을 침해했다고 주장한다는 내용이다. 소장은 ChatGPT가 “흡수한 콘텐츠”에서 직접 답을 제공함으로써 퍼블리셔의 웹 트래픽과 광고 수익을 빼앗고, 이는 생존에 중요하다고 주장한다. 이는 온라인 콘텐츠 활용과 공공 지식 vs. 독점 정보의 경계를 둘러싼 법적 논쟁에 추가되는 사례로 소개되며, 기사 링크가 첨부된다 (Read more). 댓글에서는 ‘정의(definition)’를 소유하는 것의 함의, 정보 접근성에 대한 영향, 소송 전제에 대한 회의와 풍자적 반응이 나타났다.
-
CEO Asks ChatGPT How to Void $250 Million Contract, Ignores His Lawyers, Loses Terribly in Court (Activity: 465): Krafton CEO Changhan Kim이 Unknown Worlds Entertainment와의
$250 million계약을 무효화하려 하면서 변호사 대신 ChatGPT에 조언을 구했고, 법원에서 크게 패소했다는 사건을 다룬다. 법원은 전문적 법률 판단 없이 AI에 의존하는 위험을 강조했다는 요지다. 이 사례는 AI가 논점 점검(stress-testing)이나 판례 요약 등 준비 단계에는 도움 될 수 있지만, 책임(liability)과 맥락 이해가 부족해 직접적 법적 행동의 근거로 삼기에는 부적절하다는 점을 부각한다고 정리한다. 관련 기사로 404 Media report가 연결된다. 댓글에서는 AI를 전문가 판단의 “대체”가 아니라 “보조”로 써야 한다는 점, 법적 맥락을 놓치는 한계, 권위적인 톤이 사용자를 오도할 수 있다는 우려가 반복됐다. 댓글 요약: RobinWood_AI는 AI는 보조여야 한다고 했고, chiqu3n은 특수 법령 등 맥락을 놓칠 수 있음을 지적했으며, Dailan_Grace는 과도한 확신의 어조가 문제라고 말했다. -
Jeremy O. Harris drunkenly called OpenAI’s Sam Altman a Nazi at the Vanity Fair Oscar party (Activity: 650): Vanity Fair 오스카 파티에서 극작가 Jeremy O. Harris가 OpenAI CEO Sam Altman에게 OpenAI의 “Department of War” 관련 신규 딜을 이유로 나치에 비유하는 발언을 했다는 내용이다. 이후 Harris는 Goebbels가 아니라 전범으로 유죄 판결을 받은 독일 산업가 Friedrich Flick에 비유한 것이라고 해명했다. 이 사건은 AI의 군사적 활용을 둘러싼 윤리 논쟁을 비춘다는 맥락으로 정리되며, 댓글에는 나치 비교의 적절성에 대한 회의(Altman의 유대인 배경 언급 등)와 일부 농담성 반응도 섞였다.
AI Discord Recap
AINews
- 안타깝게도 오늘 Discord가 접근을 차단했다. 이 형태로는 다시 제공하지 않겠지만, 새로운 AINews를 곧 출시할 예정이다. 여기까지 읽어줘서 고맙고, 좋은 여정이었다.