오늘의 요약

  • Cursor Composer 2, Kimi K2.5 기반 논란
  • NVIDIA Nemotron-Cascade 2 공개, 30B MoE
  • OpenAI, Codex for Students로 $100 크레딧
  • Mistral Small 4, 멀티모달·추론 모드 추가
  • FAIR V-JEPA 2.1, 비디오 이해 성능 강화

Cursor Composer 2, Kimi K2.5 기반 논란

2026년 3월 20일 금요일
#Cursor#Kimi#NVIDIA#OpenAI#Codex#LangChain

헤드라인: Cursor Composer 2, Kimi K2.5 기반 논란

참고 링크: 544 Twitters · AINews’ website · AINews is now a section of Latent Space · opt in/out

Cursor의 새 코딩 모델 Composer 2를 두고, 기반 모델(base model) 공개와 모델 귀속(attribution) 문제가 핵심 논쟁이 됐다. 토크나이저(tokenizer)·모델 URL 신호로 Kimi와의 연관성이 제기되면서, 기반 모델을 처음부터 밝히지 않은 이유와 라이선스 준수 여부가 쟁점으로 부상했다.

Cursor는 Composer 2가 Kimi K2.5에서 시작했지만 최종 모델 계산량(compute) 중 기반에서 온 비중은 1/4 정도이고, 나머지는 지속적 사전학습(continued pretraining)과 고연산 강화학습(RL)으로 채웠다고 설명했다. 또한 사용은 Fireworks 호스팅 기반 상업 파트너십 조건으로 커버된다고 밝혔다.

이 사건은 고성능 제품이 ‘처음부터 사전학습(pretraining)’하기보다, 강한 오픈 웨이트(open-weight) 기반을 사후학습(post-training)으로 끌어올리는 흐름이 커지고 있음을 보여줬다. 동시에 기반 공개·평가(evals) 비교·OSS 기여자 크레딧 등 표기 규범이 제품 신뢰와 생태계 건강에 더 중요해지고 있다는 신호로 읽혔다.


AI Twitter Recap

Coding Agents, Model Attribution, and the Cursor/Kimi Composer 2 Controversy

  • Composer 2는 Kimi K2.5 기반이며, ‘표기 공백’이 이슈가 됨: 이날 가장 큰 엔지니어링/제품 담론은 Cursor의 새 코딩 모델을 둘러싸고 전개됐다. 토크나이저·모델 URL 신호를 근거로 Composer 2가 Kimi와 연결된다는 추측이 나왔고, 비판 측은 왜 기반 모델을 선제적으로 공개하지 않았는지와 라이선스 조건 준수 여부를 문제 삼았다 (@Yuchenj_UW, @eliebakouch, @ClementDelangue). 이후 Cursor는 Composer 2가 Kimi K2.5에서 시작했으며, 최종 모델 계산량 중 기반에서 온 비중은 1/4 정도이고 나머지는 지속적 사전학습(continued pretraining)과 고연산 강화학습(RL)에서 왔다고 설명했다. 또한 사용은 Fireworks-hosted commercial partnership terms로 커버된다고 밝혔다 (@leerob, @leerob, @amanrsanger). 뒤이어 Kimi도 파트너십을 공개 확인하며, K2.5가 기반을 제공하고 Cursor가 지속적 사전학습과 RL을 더했으며 Fireworks가 호스팅된 RL/추론(inference) 인프라를 제공했다고 “오픈 모델 생태계” 사례로 프레이밍했다 (Kimi Moonshot).
  • 기술·전략적으로 왜 중요했나: 이번 에피소드는 업계의 균열선을 또렷하게 했다. 점점 더 고성능 제품이 ‘처음부터 사전학습’이 아니라, 특히 중국계 오픈 웨이트 기반을 사후학습(post-training)한 파생(derivative) 형태가 될 수 있다는 점이다. 여러 실무자는 이것이 “foundation models”의 본래 용도이며, 대신 귀속(attribution)과 라이선스 의무를 깔끔하게 처리해야 한다고 주장했다 (code_star, @Yuchenj_UW, @Teknium). 반대로 기반을 명확히 이름에 드러내고, 평가에서 기반 대비 성능을 제시하며, OSS 연구소/팀에 가시적 크레딧을 주는 규범이 더 강해져야 한다는 의견도 있었다 (@kimmonismus, @cloneofsimo). 결론적으로 ‘스캔들’이라기보다 신호에 가깝다. 제품 차별화는 도메인 특화 CPT/RL, 평가(evals), UX로 이동하는 반면, 기반 모델 출처(provenance)는 전략적으로 민감하지만 공개 필요성이 점점 커지고 있다.

Open Coding Tooling: Claude Code, T3 Code, Deep Agents, Fleet, and Hermes

  • Claude Code 생태계가 서드파티 제품/채널로 확산: Theo가 T3 Code에 Claude 통합을 공개하며, 로컬 Claude Code CLI가 설치된 사용자가 T3 Code 내부에서 이를 쓸 수 있게 됐다고 소개했다. 동시에 법적 리스크·커뮤니티 노트 가능성을 농담 섞어 언급했다 (Theo, Theo, Theo). 별도로 Anthropic이 Claude Code를 터미널 밖으로 확장해 Telegram/Discord 같은 Channels로 넓히는 정황도 언급됐다 (kimmonismus). 오픈소스 유지관리자들은 Diffusers 통합, 프로파일링(profiling), 하드웨어 인지 파이프라인 최적화 등에서 Claude 지원 프로그램이 실질적 생산성 향상을 줬다고 공유했다 (RisingSayak).
  • LangChain이 ‘오케스트레이션’에서 ‘에이전트 제품’으로 확장: 여러 트윗이 오픈소스 Claude Code 대안으로 Deep Agents/Open SWE를, 그리고 다중 에이전트/워크포스(workforce)형 제품 레이어로 LangSmith Fleet를 부각했다 (KSimback, BraceSproul, EvanRimer, hwchase17). 또한 LangChain은 프로덕션 지향 요소를 출시했다: Building Reliable Agents 코스, LangSmith Prompt Hub의 owners-only prompt promotion, @langchain/react의 React Suspense 지원, 그리고 비결정적(non-deterministic) 에이전트의 프로덕션 관측가능성(observability) 메시지 강화 등 (LangChain, LangChain, LangChain, LangChain_JS).
  • Hermes/OpenClaw/로컬 에이전트 워크플로가 빠르게 성숙: HermesWorkspace v0.2.0은 원클릭 시작, UI 기반 프로바이더/모델 설정, 라이브 모델 카탈로그, 새 설정/모델 엔드포인트 등을 추가했다 (outsource_). Hermes는 병렬 웹 검색/페이지 추출, 워크플로 레코더/리플레이 시스템, Camel Guard v0.4 기반의 프롬프트 인젝션(prompt-injection) 방어 강화도 확보했다 (p0, 0xbyt4, WeXBT). Hermes와 OpenClaw 비교에서는 Hermes의 컴팩트하고 검색 중심(retrieval-heavy) 메모리 설계 vs OpenClaw의 더 큰 리플레이 히스토리 차이가 대화형(interactive) 사용의 지연(latency)에 미치는 영향이 구체적으로 언급됐다 (witcheer). 반복되는 메시지는 에이전트 UX가 ‘원샷 모델 IQ’보다 메모리 아키텍처, 도구 신뢰성, 루프 지연으로 이동하고 있다는 점이다.

Model Releases and Benchmarks: Nemotron-Cascade 2, Mistral Small 4, V-JEPA 2.1, MiMo, and Design/Coding Rankings

  • NVIDIA Nemotron-Cascade 2가 오픈 모델 출시 중 두드러짐: NVIDIA가 Nemotron-Cascade 2를 공개했다. **30B MoE(활성 3B)**의 오픈 모델로, 고밀도 추론(reasoning)/에이전틱(agentic) 모델을 표방한다. 주장도 공격적이다: IMO 2025, IOI 2025, ICPC World Finals 2025에서 금메달급 성능, 수학/코드/정렬(alignment)/지시추종(instruction-following) 전반에서 최고 수준, 그리고 Qwen3.5-35B-A3B, Qwen3.5-122B-A10B보다 우수하다는 포지셔닝. 핵심은 **Cascade RL + 멀티도메인 온폴리시(on-policy) 증류(distillation)**로 제시됐다 (_weiping, HuggingPapers, ollama). 가중치뿐 아니라 ‘활성 파라미터 효율이 높은(compact, high-activation-efficiency) 추론 모델’을 1급 OSS 옵션으로 만든 점이 주목됐다.
  • Mistral Small 4: 하이브리드 추론+멀티모달, 다만 지능은 동급 대비 뒤처짐: Artificial Analysis는 Mistral Small 4를 Apache 2.0 라이선스의 **119B MoE(활성 6.5B)**로 요약했다. 추론/비추론 모드를 모두 지원하고 이미지 입력도 가능하다. AA Intelligence Index는 추론 모드에서 27로, 기존 Mistral small 대비 상승했고 Magistral Medium 1.2와 동급이지만, gpt-oss-120B (33), Nemotron 3 Super 120B A12B (36), Qwen3.5 122B A10B (42) 같은 동급 대비 낮다. 다만 토큰 효율(token efficiency)이 좋고 일부 경쟁 모델보다 환각(hallucination)이 적을 가능성이 언급됐다 (Artificial Analysis).
  • V-JEPA 2.1: 비전 SSL(자기지도학습) 업데이트, 특히 조밀(dense) 이해에 중요: FAIR의 V-JEPA 2.1은 마스킹 토큰만이 아니라 마스킹+가시 토큰 모두에서 학습하도록 바뀌었고, 중간 레이어 전반에 **깊은 자기감독(deep self-supervision)**을 추가했으며, 공유 인코더 아래 **모달리티별 토크나이저(modality-specific tokenizers)**를 사용한다 (TheTuringPost, murloren, massiviola01). 보고된 성과로는 실제 조작(manipulation) 제로샷에서 V-JEPA 2 대비 로봇 그립 성공률 +20%, Ego4D·EPIC-KITCHENS의 조밀한 예측(anticipation) 과제에서 새 SOTA 등이 포함됐다 (TheTuringPost).
  • 그 외 벤치마크 변화: DesignArena는 Anthropic Opus 4.6이 웹/모바일/3D 디자인/게임 개발/데이터 시각화 등 디자인 중심 코딩 과제에서 선두로 올라섰고, SVG 디자인은 Gemini 3.1이 가져갔다고 보고했다 (Designarena). Xiaomi의 MiMo V2 Pro/Omni는 Arena 랭킹과 독립 리뷰에서 ‘유의미하지만 기복 있는’ 신흥 주자로 언급됐다. 지시추종과 일부 장기 과제 처리에 강점이 있으나, 코딩 일관성과 환각 저항은 약하다는 평가다 (arena, ZhihuFrontier). Alibaba는 Qwen 3.5 Max Preview의 포지셔닝도 티저로 공개했다: 수학 #3, Arena Expert 톱10, 전체 톱15 (AlibabaGroup).

Training, RL, Retrieval, and Systems Efficiency

  • 타깃 데이터로 사전학습을 ‘조준’하면 미세조정보다 레버리지가 계속 큼: Stanford/Marin 생태계의 연구 스레드가 합성 “megadocs”를 통한 **데이터 효율 사전학습(data-efficient pretraining)**을 주장하며, 대략 1.8× 데이터 효율 개선을 보고했다. 작은 도메인 데이터셋을 사전학습 단계에서 섞으면, 반복 미세조정(fine-tuning)이나 리플레이(replay)보다 과적합(overfitting)에 강하다고 강조했다 (konwookim, percyliang, leavittron). “midtraining = RL prior” 같은 관점과 함께, 모델 적응(adaptation)이 핵심 응용 역량이 되고 있다는 논의와도 맞물렸다 (cooperleong22, code_star).
  • RL이 수학/챗을 넘어 검색(retrieval)·예측(forecasting)으로 다변화: CMU/Meta는 탐색 인터페이스를 ‘bash 터미널’만으로 제한해 특수 도구 없이도 성능을 끌어올리는 코드 검색(code search) 모델용 RL 레시피를 소개했다 (gneubig). Tinker와 Mantic은 gpt-oss-120b에 ‘판단형(judgmental) 예측’ RL을 적용해 이벤트 예측에서 프론티어 모델을 상회했다고 보고하며, “자동화된 슈퍼포캐스팅(automated superforecasting)” 쪽으로 밀었다 (tinkerapi, johnschulman2).
  • 인프라·커널이 병목이자 해자(moat): 커널 엔지니어링 관련 고참여 게시물들은 커스텀 커널 작성이 시스템 엔지니어에게 최고 ROI 스킬이 될 수 있다고 강조했다 (jxmnop, clattner_llvm). ThunderKittens는 연구→프로덕션 추론 전환(inference transfer)의 사례로 언급됐고, 코딩 에이전트에서 50+ 도구 호출(tool calls) 시 세대당 수백 ms 단축이 누적 효과를 낸다는 점이 강조됐다 (boyuan_chen). 서빙(serving) 측면에서는 RunPod의 프로덕션 데이터셋에서 텍스트 전용 엔드포인트의 대략 절반이 vLLM 변종을 사용한다는 주장과 함께 **vLLM이 사실상 표준(de facto standard)**으로 언급됐다 (vllm_project).

Applied Tools, Product Launches, and Agent Infrastructure

  • 문서 파싱이 에이전트 프리미티브로 빠르게 상품화: LlamaIndex가 LiteParse를 출시했다. 무료 로컬 파서로, npx skills add ... --skill liteparse 한 줄 설치 경로를 통해 40–46+ agents에 연결되는 형태로 포지셔닝됐다. 이는 작업 해결 유틸리티이자 문서를 코딩 에이전트 컨텍스트로 투입하는 경로로도 제시됐다 (jerryjliu0, llama_index, Saboo_Shubham_). LlamaParse도 표/차트/이미지 등 복잡한 문서 이해를 위한 공식 에이전트 스킬을 제공하기 시작했다 (llama_index).
  • 로컬/오프라인 딥 리서치와 로컬 에이전트 스택이 ‘쓸만한’ 수준으로: Local Deep Researcher가 MIT 라이선스로 소개됐다. 스스로 검색 질의를 작성하고 스크레이핑(scraping)하며, 갭을 식별·반복해 인용(citation) 포함 마크다운 리포트를 작성하는 로컬 리서치 루프다(Ollama 호환 모델 사용) (ihtesham2005, RoundtableSpace). 커뮤니티 데모에서는 Apple Silicon과 구형 GPU에서 Hermes/OpenClaw, Qwen, Nemotron, Ollama, 하이브리드 러너를 조합한 완전 로컬 에이전트 스택도 다수 공유됐다 (agenticmate, elldeeone).
  • Perplexity·Devin·엔터프라이즈 에이전트 제어면 확장: Perplexity Computer가 Pitchbook, Statista, CB Insights 데이터 접근을 추가해 애널리스트/VC 워크플로로 더 깊게 들어갔다 (AravSrinivas). Devin은 **자체 스케줄링되는 반복 작업(recurring tasks)**을 추가해, 1회성 세션을 주기적 워크플로로 바꾸는 방향을 제시했다 (cognition). Okta의 “AI agents as governed non-human identities” 청사진과 Factory의 엔터프라이즈 설정 계층(hierarchy)은, 프로덕션에서 에이전트 거버넌스(governance) 패턴이 더 뚜렷해지고 있음을 시사했다 (dl_weekly, FactoryAI).

Top tweets (by engagement)

  • 모델 출처·제품 포지셔닝: 참여도 기준 최대 기술 스토리는 Cursor Composer 2가 승인된 Fireworks 파트너십을 통해 Kimi-k2.5를 사용한다는 Kimi의 확인으로, 귀속 논쟁의 고리를 닫았다 (Kimi Moonshot).
  • 오픈 코딩 제품 롤아웃: Theo의 T3 Code가 Claude를 지원한다는 게시물이 큰 주목을 받았고, 코딩 에이전트 통합에서 플랫폼/TOS 쟁점의 플래시포인트가 됐다 (Theo).
  • 학생·빌더용 에이전트 툴링: OpenAI가 Codex for Students를 출시해 미국·캐나다 대학생에게 $100 크레딧을 제공한다고 밝혔다 (OpenAIDevs).
  • 시스템 파급력 큰 연구/모델 공개: NVIDIA의 Nemotron-Cascade 2 발표는 강한 추론 주장과 매우 컴팩트한 활성 파라미터 구성을 결합한 점에서 돋보였다 (_weiping).
  • 비전 자기지도학습: FAIR의 V-JEPA 2.1은 비디오 기반 시각 이해를 더 조밀하고 확장 가능하게 가는 경로로 주목을 받았다 (TheTuringPost).

AI Reddit Recap

/r/LocalLlama + /r/localLLM

  • Running TinyLlama 1.1B locally on a PowerBook G4 from 2002. Mac OS 9, no internet, installed from a CD. (Activity: 282): 2002년형 PowerBook G4에서 Mac OS 9로 인터넷 없이 CD 설치만으로 TinyLlama를 로컬 실행한 프로젝트가 소개됐다. 기존 레트로 AI 시도와 달리, 클래식 맥 하드웨어에 맞춘 커스텀 C89 추론(inference) 엔진을 만들고 GPT-2·TinyLlama 등 여러 모델을 지원한다. Macintosh 특화 텍스트로 학습한 1억(100M) 파라미터 트랜스포머도 포함됐고, AltiVec SIMD 최적화로 7.3x speedup을 달성했으며, 제한된 RAM에서 큰 모델을 다루기 위해 디스크 페이징(disk paging)도 사용한다. 전 과정이 오프라인(CD-R) 설치로 구성된 점이 특징이며, 댓글에서는 참신함과 난이도 높은 엔지니어링에 대한 감탄, TinyLlama의 추론 시간에 대한 농담, Hypercard 스택 XCMD와의 통합 기대 등이 나왔다.
  • Qwen3.5 is a working dog. (Activity: 623): Qwen3.5는 ‘일꾼(working dog)’처럼 명확한 목표와 환경 컨텍스트가 주어질 때 성능이 좋아지며, 특히 27B는 최소 3K 토큰 정도의 컨텍스트가 있어야 유용하다는 주장이다. 글쓴이는 이를 ‘agentic-first’ 설계로 해석했고, 35B MoE는 기대 대비 성능이 약하다고 비판했다. 댓글에서는 27B가 계획(planning) 모드에서 과도하게 모든 가능성을 시도하지 않게 하려면 지시를 더 명확히 해야 한다는 공감이 있었고, 122B는 600 토큰 시스템 프롬프트 제한이 오히려 성능을 좋게 만들었다는 경험담도 공유됐다. 또한 unsloth quant로 24GB 카드에서 컨텍스트 윈도우를 극대화하는 전략과, Gemini 3.1 pro 같은 SOTA 모델로 시스템 프롬프트를 ‘작성’하는 워크플로도 언급됐다.
  • 128gb M5 Max for local agentic ai? (Activity: 112): 개인 정보 보호와 클라우드 회피를 위해, gpt-oss-120b·nemotron-3-super-120b-a12b 같은 대형 모델을 **Q4/Q5 양자화(quantization)**로 로컬에서 돌릴 목적으로 128GB M5 Max MacBook 구매가 적절한지 논의한다. 현재 RTX 4070(16GB) 구성이 로컬 모델에 제한적이라고 느끼며, M5 Max의 유연성과 대형 모델 구동 가능성이 장점으로 제시되지만 고부하 시 팬 소음도 언급됐다. 댓글에서는 M5 Max 128GB가 위 모델들을 Q4/Q5로 “수월하게” 구동할 수 있다는 의견이 있었고, 최적화하면 qwen 3.5 390b도 약 12 tokens/second까지 나온다는 경험담이 공유됐다. 또한 48GB Mac Mini M3 Max의 4-bit 성능(약 5 tokens per second)과 비교하며 M5 Max의 우위를 언급했고, M4 Max 128GB도 프리필(prefill)이 느리지만 대형 모델 구동은 가능하다는 비교도 나왔다.
  • Ooh, new drama just dropped 👀 (Activity: 1482): Cursor의 새 모델 Composer 2가 Kimi K2.5를 기반으로 하면서도 적절한 귀속(attribution)이 없었다는 논란을 밈 이미지로 풍자한 게시물이다. Kimi K2.5의 ‘수정된 MIT 라이선스’가 상업적 사용에서 특정 규모(사용자·매출) 기준을 넘으면 UI에 표기를 요구한다는 점이 논쟁의 맥락으로 언급됐다. 게시물은 “새 드라마가 떨어졌다”는 제목처럼 이 이슈의 ‘폭로’ 분위기를 연출하며, View Image도 함께 공유됐다. 댓글에서는 대기업이 시장 공백을 빠르게 메우는 ‘래퍼(wrapper)’ 제품 전략이라는 옹호와, 실체 없이 과장된 제품이라는 비판이 엇갈렸다. 또한 Moonshot AI의 수정 MIT 라이선스에 포함된, 월간 활성 사용자 1억(100M) 이상 또는 월 매출 $20M 이상 기업은 UI에 ‘Kimi K2’를 표시해야 한다는 조항이 인용됐고, Cursor의 가격 플랜에서 모델 사용이 무제한인지에 대한 질문도 제기됐다.

Less Technical Subreddits

/r/Singularity, /r/Oobabooga, /r/MachineLearning, /r/OpenAI, /r/ClaudeAI, /r/StableDiffusion, /r/ChatGPT, /r/ChatGPTCoding, /r/aivideo, /r/aivideo

  • Cursor’s ‘Composer 2’ model is apparently just Kimi K2.5 with RL fine-tuning. Moonshot AI says they never paid or got permission (Activity: 739): 이미지(터미널 디버그 화면) 기반으로 Cursor의 ‘Composer 2’가 **Kimi K2.5에 RL 미세조정(fine-tuning)**을 더한 것이라는 주장과, 권한/비용 지급 없이 사용했다는 의혹이 제기됐다. 화면에는 모델이 ‘kimi-k2p5-rl-0317-s515-fast’로 식별되는 듯한 로그가 담겼다. 댓글에서는 Cursor가 오픈 모델을 재브랜딩해 판매하는 방식에 대한 비판과, 기반 모델·라이선스·귀속 표기에 대한 투명성 요구가 나왔다. 한편 일부는 수정 MIT 라이선스 해석상 “기술적으로는” 준수했을 가능성을 언급하면서도, 상업 제품에서 원저작자 크레딧을 눈에 띄게 제공하지 않는 윤리적 문제를 지적했다.
  • Cursor’s new Composer 2 just beat Claude Opus at coding and it’s 10x cheaper (Activity: 195): CursorComposer 2를 공개했고, Terminal-Bench 2.0에서 61.7%Claude Opus 4.658.0%를 넘겼다는 주장이다. 가격은 백만 토큰당 $0.50로 Opus의 $5.00보다 크게 저렴하지만, GPT-5.475.1%에는 못 미친다고 한다. 코드 전용 학습, 긴 세션을 맥락 손실 없이 압축하는 “self-summarization” 등이 특징으로 언급됐다. 또한 OpenAI가 Codex 강화를 위해 Astral을 인수했다는 서술도 포함됐다. 댓글에서는 기반 모델이 GLM 5일 수 있다는 추측과, Cursor가 처음부터 사전학습하지 않고 Kimi-K2.5GLM 4.7/5 같은 오픈소스 모델을 미세조정하는 것 아니냐는 비판이 나왔다.
  • MacBook M5 Pro + Qwen3.5 = Fully Local AI Security System — 93.8% Accuracy, 25 tok/s, No Cloud Needed (96-Test Benchmark vs GPT-5.4) (Activity: 235): HomeSec-Bench라는 홈 보안 시스템 벤치마크에서 Apple M5 Pro 위 로컬 Qwen3.5 성능을 다룬다. Qwen3.5-9B93.8% 정확도로 GPT-5.4보다 4.1점 낮았고, 25 tokens per second, 메모리 13.8 GB로 동작했다고 한다. Qwen3.5-35B MoE는 첫 토큰 시간 435ms TTFT42 tok/s 처리량을 기록해 테스트된 OpenAI 클라우드 엔드포인트보다 빠르다는 주장도 포함됐다. 벤치마크는 컨텍스트 전처리, 이벤트 중복 제거, 보안 분류 등 과제를 포함하며, 방법론/전체 결과는 GitHub에서 제공된다고 한다. 댓글에서는 jang_q 모델이 MMLU에서 더 높은 성능(예: 2-bit 동급 60GB가 80% 근처)을 낸다는 주장과, Qwen3.5-9B를 풀 모델 대신 Q4_K_M 같은 양자화 버전으로 선택한 이유를 묻는 질문, 24MB 유니파이드 메모리 Mac Mini에서 Qwen 호환 가능성을 묻는 질문이 나왔다.
  • I built a Claude skill that writes accurate prompts for any AI tool. To stop burning credits on bad prompts. We just hit 600 stars on GitHub‼️ (Activity: 1339): prompt-master라는 Claude skill이 다양한 AI 도구용 프롬프트를 최적화해, GitHub에서 600 stars를 넘겼다는 소개다. 사용자 입력에서 9 dimensions를 추출하고 35 common prompt issues를 진단해 프롬프트 정확도/효율을 높이며, Claude·ChatGPT·Midjourney·Eleven Labs 등 폭넓은 플랫폼을 지원하고, 작업 유형에 따라 자동 선택되는 12개 템플릿이 있다고 한다(최근 v1.4 언급). 댓글에서는 Midjourney/Claude Code 등 도구별 프롬프트 구조 차이를 반영하는 ‘라우팅(routing)’이 차별점이라는 평가와, 오픈소스 모델 로컬 구동(예: comfyui, 5090 GPU) 호환성에 대한 관심, 여전히 수동 튜닝이 필요하다는 경험담이 함께 나왔다.
  • Pretty sure I’m not using Claude to its full potential - what plugins/connectors are worth it? (Activity: 863): Claude를 플러그인/커넥터로 최적화하는 방법을 묻는 글로, /insights 명령으로 사용 리포트와 개선 조언을 얻는 팁이 언급됐다. 더 고급 구성으로는 크롬 확장(Chrome extension)으로 도구 호출을 라우팅하는 단일 MCP 서버를 만들어, Slack·Linear·Datadog·Google Sheets 등 기존 웹앱 세션을 활용해 별도 API 키 없이 slack_send_message·linear_create_issue 같은 작업을 수행하는 방식이 소개됐다. 오픈소스 구현은 GitHub에 있다고 하며, 개발자에게는 공식 플러그인 리스트의 Superpowers 플러그인이 추천됐다. 댓글에서는 단일 MCP 서버가 여러 API 키를 직접 관리하는 것보다 효율적이라는 선호가 있었고, 해당 오픈소스 프로젝트가 GitHub에 공개돼 있다는 언급도 повтор됐다. 또한 context7·superpowers 같은 MCP를 주로 쓰며 비용 추적을 위한 커스텀 MCP를 만들었다는 사례도 공유됐다.
  • An Australian ML researcher, used ChatGPT+AlphaFold to shrink 75% of his life-threatened dog’s MCT cancerous tumor, developing a personalized mRNA vaccine in just two months - after sequencing his dog’s DNA for $2,000 (Activity: 768): 호주 ML 연구자 Paul ConynghamChatGPTAlphaFold를 활용해 반려견 Rosie의 비만세포종(MCT) 종양에 대한 개인 맞춤 mRNA 백신을 2개월 만에 개발했고, 종양이 75% 줄었다는 사례를 다룬다. 종양 DNA 시퀀싱 비용은 약 $2,000로 서술되며, ChatGPT로 네오항원(neoantigens)을 찾고 AlphaFold로 단백질 구조를 예측했다고 한다. UNSW의 Martin Smith(유전체 시퀀싱)와 Pall Thordarson(mRNA 합성) 협업도 언급되며, 생물/의학 정규 교육이 없었다는 점이 강조된다 (source). 댓글에서는 의료 민주화의 전환점인지, 과장(hype)인지에 대한 논쟁과, 규제 장벽이 혁신을 늦춘다는 주장 등이 오갔다.
  • Chatgtp is legit helping me cook insane (Activity: 721): ChatGPT로 보유 재료에 맞춘 단계별 레시피를 만들고, 재료 대체 시 비율을 즉시 조정하며, 영수증 기반 장보기 목록으로 식단을 짜고, 칼로리·매크로(macros) 같은 영양 정보를 계산하는 활용이 공유됐다. 또 주방 장비/향신료/식단 선호를 입력해 ChatGPT용 프롬프트를 생성하는 Chef Genius Generator 도구도 언급됐다. 댓글에서는 대체 재료에 따른 레시피 조정 유연성, 영양 분석 기능, 요리 대회에서의 활용 등 긍정 사례가 이어졌다.

AI Discord Recap

AINews Discord

  • 접근 종료 공지: 오늘 Discord가 접근을 차단해, 이 형태로는 더 이상 Discord를 되돌리지 않겠다고 밝혔다. 대신 곧 새로운 AINews를 출시할 예정이며, 여기까지 읽어준 것에 감사한다는 메시지로 마무리했다.