EP.1 13:11

GPT 5.4 사용 후기, 진짜 사람 느낌을 보여준 Figure 데모

GPT 5.4 실사용 체감, Figure Helix 데모, 하이브리드 LLM 아키텍처, 롱 컨텍스트, 오토리서치와 코딩 에이전트 하네스 변화를 한 편으로 정리합니다.

#GPT 5.4#OpenAI Codex#Figure AI#Helix#Claude Code#오토리서치#하이브리드 아키텍처#Gemini Embedding#Long Context

요약

  • Figure AI의 Helix 데모는 텔레오퍼레이션이 아니라 모델이 리모컨 조작과 수건 처리 같은 행동을 수행했다는 주장 때문에, 로봇 데모를 보는 기준을 다시 세우게 한다.
  • OLMo, Qwen, Kimi 계열 사례를 놓고 Transformer만 쓰는 구조보다 Mamba·Gated DeltaNet을 섞는 하이브리드 아키텍처가 LLM의 기본 선택지로 넓어지고 있다는 흐름을 짚는다.
  • 1M 컨텍스트 지원은 곧 1M 토큰 전체를 안정적으로 활용한다는 뜻이 아니며, 긴 문맥 검색과 회수 성능은 여전히 별도로 검증해야 한다.
  • GPT 5.4는 코딩 작업에서 문제 원인 추적과 태클 거는 스타일이 강하게 체감되었고, Claude Code와 Codex는 모델 품질뿐 아니라 하네스와 워크플로우 차이로 비교해야 한다.
  • Karpathy의 오토리서치, Gemini Embedding 2, Claude Opus의 1M 컨텍스트 기본 제공 사례를 통해 에이전트형 개발·연구 환경이 빠르게 재편되고 있음을 보여준다.

핵심 인사이트

  • 로봇 데모는 자연스러운 움직임만 볼 것이 아니라 텔레오퍼레이션 여부, 손가락 자유도, 실패 조건, 반복 촬영 가능성을 함께 물어봐야 한다.
  • 하이브리드 LLM 아키텍처는 긴 컨텍스트와 효율성 경쟁의 한 축이지만, 새 구조가 실제 제품 성능으로 이어지는지는 별도 평가가 필요하다.
  • 벤치마크 순위보다 중요한 것은 내가 맡긴 실제 작업에서 모델이 숨은 원인까지 추적하고 검증 루프를 완주하는지 여부다.
  • 롱 컨텍스트는 컨텍스트 창 크기와 회수 정확도를 분리해서 봐야 하며, 꽉 채운 문맥에서 모델이 멍청해지는 체감도 중요한 실사용 신호다.
  • Codex와 Claude Code의 비교는 모델 대 모델 비교가 아니라 스킬, 서브에이전트, 질문 도구, 컨텍스트 관리 같은 하네스 설계 비교이기도 하다.

작성 기준

이 노트는 YouTube에서 제공한 한국어 자동 자막과 영상 설명란을 기준으로 정리했습니다. 자막에는 일부 음성 인식 오류가 있으므로, 구체적인 모델명·벤치마크 수치·서비스 정책은 링크된 공식 자료로 다시 확인하는 편이 안전합니다.

왜 이 영상을 봐야 하나

이 에피소드는 “GPT 5.4를 써보니 어땠나?”라는 체감 이야기로 시작하지만, 실제 주제는 더 넓습니다. Figure Helix 데모에서 보이는 사람 같은 움직임, 하이브리드 LLM 아키텍처, 1M 컨텍스트의 실사용 한계, 오토리서치, 멀티모달 임베딩, Codex와 Claude Code의 하네스 차이까지 한 번에 이어집니다.

핵심은 새로운 모델이나 데모를 볼 때 “대단하다”에서 멈추지 않고, 어떤 조건에서 그렇게 보였는지 분해하는 것입니다. 로봇은 실제 행동 성공률과 실패 처리로, LLM은 벤치마크보다 실제 작업 루프에서의 원인 추적 능력으로 봐야 합니다.

핵심 흐름

1. Figure Helix 데모는 왜 사람처럼 보였나

초반부에서는 Figure AI의 Helix 데모를 보며 리모컨 조작과 수건 처리 장면을 이야기합니다. 진행자들은 이 장면이 텔레오퍼레이션이 아니라 Helix가 수행했다는 주장에 주목하면서도, 리모컨을 잡는 방식이나 손가락의 정교함, 반복 촬영 가능성 같은 검증 질문을 함께 던집니다.

여기서 중요한 관점은 “사람 같아 보인다”는 감각과 “사람처럼 일반화할 수 있다”는 능력을 구분하는 것입니다. 자유도가 높다고 항상 조작이 좋아지는 것은 아니며, 데모의 설득력은 하드웨어보다 모델·데이터·실패 조건을 어떻게 공개하느냐에 달려 있습니다.

2. 하이브리드 아키텍처가 기본값이 되는가

다음 주제는 OLMo와 Qwen 계열을 예로 든 하이브리드 LLM 아키텍처입니다. 대화에서는 Transformer만 쓰는 모델보다 Mamba, Gated DeltaNet 같은 구조를 섞는 흐름이 점점 자연스러운 선택지가 되고 있다고 봅니다.

다만 이 흐름을 모든 차세대 모델에 곧바로 일반화하지는 않습니다. 어떤 구조가 들어갔는지는 사전 학습을 언제 시작했는지, 그 시점에 어떤 설계 결정을 했는지에 따라 달라질 수 있기 때문입니다. “대세가 될 가능성”과 “이미 모든 프런티어 모델에 들어갔다”는 추정은 구분해서 봐야 합니다.

3. 1M 컨텍스트는 1M을 다 잘 쓴다는 뜻이 아니다

롱 컨텍스트 파트의 핵심 문장은 단순합니다. 컨텍스트 창이 1M 토큰이라는 말은 1M 토큰 전체를 빠짐없이 기억하고 정확히 회수한다는 말이 아닙니다.

진행자들은 needle-in-a-haystack류 테스트와 실사용 체감을 연결해, 긴 문맥에서 필요한 정보를 제대로 찾는 능력은 별도 문제라고 지적합니다. 컨텍스트 크기가 커질수록 편리함은 커지지만, 꽉 채웠을 때 모델이 둔해지는 느낌이나 회수 실패는 여전히 확인해야 합니다.

4. GPT 5.4 실사용 체감: 문제 원인 추적과 말투

GPT 5.4 사용 후기는 자동 편집 도구의 영상 싱크 문제를 찾은 사례로 설명됩니다. 라이브 소스 중간이 끊겨 앞뒤 싱크가 맞지 않는 상황이었고, GPT 5.4가 그 숨은 원인을 찾는 데 도움을 줬다는 경험담입니다.

흥미로운 부분은 성능뿐 아니라 말투입니다. 진행자는 GPT 5.4가 이전보다 더 많이 태클을 걸고, 읽는 입장에서는 다소 피곤할 정도로 적극적으로 반박하거나 점검한다고 말합니다. 이 체감은 “순한 답변”보다 “문제를 끝까지 파고드는 답변”이 중요한 코딩 작업에서 장점이 될 수 있습니다.

5. 오토리서치와 에이전트 하네스

Karpathy가 언급한 오토리서치 흐름은 LLM이 더 작은 LLM을 학습시키거나 연구 루프를 자율화하는 방향으로 소개됩니다. 대화에서는 이것을 바이브 코딩의 다음 단계, 즉 바이브 ML·바이브 트레이닝처럼 확장될 수 있는 키워드로 봅니다.

이어지는 Codex와 Claude Code 비교에서는 모델 자체보다 하네스가 중요하다는 점이 드러납니다. Claude Code 쪽은 스킬, 컨텍스트 관리, 질문 흐름, 편의 기능이 익숙하고 강력하게 느껴지는 반면, Codex는 GPT 5.4 이후 속도와 문제 해결력에서 좋아진 체감이 있다는 식으로 비교됩니다.

챕터별 빠른 가이드

  • 00:00 인트로: GPT 5.4 출시와 사용 여부를 던지며 시작합니다.
  • 00:05 Figure Helix 데모: 리모컨 조작, 수건 장면, 텔레오퍼레이션 여부, 손가락 자유도와 데모 설계를 봅니다.
  • 01:14 하이브리드 아키텍처: OLMo, Qwen, Gated DeltaNet, Transformer+Mamba 조합을 통해 LLM 구조 변화 흐름을 짚습니다.
  • 02:14 롱 컨텍스트: 1M 컨텍스트 지원과 실제 정보 회수 능력을 분리해서 봐야 한다는 문제의식을 제시합니다.
  • 02:56 GPT 5.4 평가: Artificial Analysis와 Arena류 평가의 한계, 벤치마크가 뚫리기 쉬운 시대의 평가 기준을 이야기합니다.
  • 03:49 실사용 후기: 영상 싱크 문제를 찾은 코딩 사례와 GPT 5.4의 적극적인 피드백 스타일을 설명합니다.
  • 05:49 오토리서치: Karpathy가 던진 키워드를 바탕으로 LLM이 연구·학습 루프를 자율화하는 방향을 봅니다.
  • 06:52 Gemini Embedding 2: 텍스트·이미지·오디오·비디오가 섞인 데이터에서 멀티모달 검색이 왜 어려운지 설명합니다.
  • 09:38 Claude Opus 1M 컨텍스트: 컨텍스트 압박이 줄어든 편의성과, 큰 컨텍스트를 꽉 채웠을 때의 성능 저하 가능성을 함께 봅니다.
  • 11:32 Codex vs Claude Code: 모델 성능뿐 아니라 스킬, 서브에이전트, 질문 도구, 토큰 제한 같은 하네스 설계 차이를 비교합니다.
  • 12:35 마무리: 코딩 에이전트가 실제 뉴스 제작과 개발 워크플로우를 바꾸고 있다는 체감으로 닫습니다.

검색 키워드

GPT 5.4, OpenAI Codex, Figure AI, Helix, Claude Code, Karpathy, 오토리서치, OLMo, Qwen, Gated DeltaNet, Gemini Embedding 2, Long Context, 멀티모달 검색, 코딩 에이전트

YouTube captions

전체 Transcription

원문 캡션을 보존한 구조화 transcriptSegments에서 읽기용 문장만 렌더링합니다.

00:00–00:05 ↗

GP 5.4가 나왔습니다. >> 써보겠어요? >> 아, 열심히 쓰고 있죠. 다들 많이 쓰고 계실걸요? 이미

00:05–01:14 ↗

>> 아, 열심히 쓰고 있죠. 다들 많이 쓰고 계실걸요? 이미 >> 비교 영상이나 한번 볼까? >> 보고 갈까? >> 그것도 킬링 포인트가 많아. >> 킬링 포인트. 저 리모컨 >> 이게 지금 주장하기로는 헬릭스가 했다고 하더라고요. >> 네. 텔레오이 아니라 헬릭스다. >> 꽤나 자연스럽다. >> 근데 좀 움직임이 확실히 >> 사람스럽긴 해요. >> 요새 그 하드웨어는 그대로 모델이 좋으니까 훨씬 더 자연스럽게 애들이 동작을 하더라고. >> 그니까 어 이번에 르로봇의 유니트 지원 추가된 거 알아요? 몰라요. >> 심버전. 네. 유니티리 지원 추가됐습니다. 이제 접근성이 한결 낮아졌다. >> 음. >> 네. 누구나 다 쉽게 지원만 있으면 >> 지원 막 요새 쿠팡에서 파는 거 아니야? 아 진짜로 >> 이마트에서 판다니까요. 이마트인가? 일렉트로마트 >> 리모콘으로 야 이거 TV가 켜져 있더라고. 저거 근데 저기에서 조금를 계속 다시 찍었을 것 같아. >> 저 리모컨 저렇게 잡아서 하는 거 사람이랑 좀 다르잖아 저거는. 이제 손가락 정교하게 하는 거는 쉽진 않은가 보다. >> 저거까진 아마 6자유도일 거예요. 예. 저는 물론 22 자유도 나온다고 하긴 했거든요. >> 자유도인데 저 정도 해. 대단하. >> 근데 자유도가 높다고 해서 무조건 잘 되는 것도 아니라서 여기서 또 이제이 수건을 겨드랑이 껴 가지고 가는게 또 킥이었거든요. 아무튼 좀 >> 생각에 여기는 데모 크리에이티브 데모 팀이 하나 있다. >> 근데 데모 진짜 잘하는 거 같아. >> 예. 중요해요.

01:14–02:14 ↗

>> 근데 데모 진짜 잘하는 거 같아. >> 예. 중요해요. >> 올모 하이브리드 이거 저희 지난주에 모트론 우리 하이브리드였잖아요. 트랜스포머랑 만바 하이브리드다. >> 아 이제 뭐 거의 디폴트인데 게이트드 델타넷 이거 >> 그러니까 우리가 이제 크웬 넥스트에서 받고 크 3.5도 어 게이트드 델타넷이랑 체스포머랑 하이브리드다 했는데 올모도 이게 나왔더라고요 이번에. 그러니까 그냥 퓨어 트랜스포머 있던이 LM 세상에 섞여 있는 친구들이 >> 다 이거네요. >> 네. 근데 올모도 했다. >> 그럼 뭐 디식 V4도 뭐 이런 걸로 이런 걸로 나오겠네. 음. 뒷식 V4가 나온다는 소문이 지금 또 있는데 딥 V4는 과연 어떻게 나올까? 저는 아닐 수도 있다고 생각해요. 왜냐면은 그거 풀체인부터 다시 하는 거잖아요. 그러니까 지금 나오는 V4가 풀체인이 한참 전부터 했을 거란 말이에요. 그때 하이브리드를 넣겠다는 결정을 과연 했을까 모르니까. >> 왜 이거는네 생각에는 이미 미국 프론티어의 모델에도 다 들어가 있다. >> 네. 선생님들끼리는 서로서로 다 알고 있다. 어쨌든 올모드 하이브리드를 하는 걸로 봐서는 앞으로 이제 점차 이게 대세가 되지 않을까

02:14–02:56 ↗

하는 걸로 봐서는 앞으로 이제 점차 이게 대세가 되지 않을까 >> 음라는 생각. >> 그다음에롱 컨텍스트 리티 체크. >> 1m 컨텍스트는 1m 사용 가능이 아님. >> 오퍼스가 >> 원밀리언이 지원을 하니까 이제 사실 오퍼스 원밀리언이 돈 내고 하면 되는 거였는데 네. >> 뭐 어쨌든 >> 근데 절대 안 했잖아요. 전 돈 아까워서 안 했는데. >> 음. 음. 근데 이제 원밀리언 컨텍스트가 지원이 된다 해도 성능이 막 엄청 좋다고 안 했기 때문에 >> 아니 이게 컨텍스트가 지원이 되는 거지. 다 빼곡히 잘 기억하고 있다는 또 다른 얘기잖아. >> 음. >> 그래서 니딜리너 헤이스텍 건초미더미에서 반을 찾기 뭐 테스크 같은게 있는데 >> 네. 긴 컨텍스트에서 과연 정보를 빠지지 않고 다 잘 보고 있을 것인가? >> 음. >> 어. 그게 이제 쉽지는 않은 문제죠. 그런데 최근에 오퍼스가 나왔다. 3월

02:56–03:49 ↗

>> 어. 그게 이제 쉽지는 않은 문제죠. 그런데 최근에 오퍼스가 나왔다. 3월 6일 >> 5.4가 나와서 결국 5.4를 평가를 사람들이 엄청 열심히 하는 거죠. 그래서 줬냐? >> Aa 지수가 뭐예요? >> 아티셜 아나리시스 우리 지난번에 열심히 봤던 거. >> 아 그거 5.4x 하이버전이 네 >> 공동 1등이다. >> 근데 어쨌든 저런 평가 기준 같은게 되게 중요하잖아요. >> 네. 특히나 요즘에는이 평가 기준을 뚫는게 매우 쉽기 때문에 평가를 어떻게 좀 잘하냐 이런게 되게 어려운 문제인데 어쨌든 요즘에는 저티션 아나시스의 밸류를 가장 많이들 보는 거 같아요, 사람들이. 왜냐면 그거는 다 우리 아레나가 열심히 뚫렸기 때문이겠죠. 아레나가 이제 객관적인 평가가 아니다. >> 아레나 그니까 사람들이 그냥 일반적인 대화에서 >> 만족할 만한 수준게 >> 음 >> 어 어떤 모델의 지능에는 이제는 너무 쉬운 일일 수도 있는 거고 취향 차이도 많이 있고

03:49–05:49 ↗

쉬운 일일 수도 있는 거고 취향 차이도 많이 있고 >> 어떻게 생각해요? 5.4 많이 잘 쓰고 있나요? 저 5.4 이번 주에 좀 의도적으로 열심히 써 봤거든요. 왜냐면 제가 오프스 그니까 클로드 코드에 오프스 4.6으로 열심히 좀 하다가 좀 막힌게 있었어요 제가. 그래서 아 그럼 5.4는 이거를 잘 해낼 수 있을까? 5.4 코덱스를 옮겨 가서 다시 5.4로 했어요. 원래는 클로드 코드가 >> 코덱스한테 리뷰 받아 와라. >> 메인은 클로드 쓰고 이렇게 쓰다가 이제 바꿔서 써 봤어요. 이번에는 >> 코덱스를 메인으로 쓰고 >> 응. 클로드한테 리뷰 받아 와라. 이런 식으로 썼는데 일단 기본적으로 두 개의 어떤 대화 스타일이 엄청 다르고 결론적으로는 점사가 더 좋았어요. >> 아, 그래요? >> 왜냐하면은 그게 뭐였냐면 자동 편집 영상 자동 편집 만들고 있는 거 >> 그거였거든요. 그게 이제 저희가 지금도 라이브 소스가 있고 저희 촬영 소스가 있잖아요. 두 개 싱크 맞추는 거였어요. >> 네. >> 음. >> 싱크 맞추는게 계속 안 되더라고요. 근데 제가 알고 보니까 >> 음. >> 라이브 소스가 중간에 >> 음. 그 씹혔더라고요. 영상이. >> 음. >> 라이브 영상을 그냥 유튜브에서 우리 라이브 나가고 그대로 또 받았는데 중간이 날아가 있어. 아마 인터넷 잠깐 끊겼었나 봐요. >> 응. >> 그러니까 싱크가 앞이랑 뒤가 안 맞는게 맞았어요. 근데 이거 찾기가 어려운게 맞잖아요. 왜냐면 프로그램 당연히 영상이 중간이 그냥 갑자기 휙 뛰어넘는 거라고 가정하고 제가 코드를 짜지 않았으니까. 근데 아무튼 5.4가 그거 찾는데 도움을 많이 줬다. 바로 >> 이런 증언들이 쌓이면 쌓일수록 뭐가 더 좋은지 >> 뭐 감을 잡아가는 거니까. >> 근데 어쨌든 말투가 좀 많이 달라 가지고 >> 말투가 달라. >> 말투 엄청 많이 달라요. 무슨 느낌이냐면 GPT 5.4는 >> 음 >> 겁나 태클 건다 해야 되나? >> 아 그래요? 막 아 이건 아닌데요. 저건 아닌데요. 그런 거 엄청해요. 좀 말도 좀 읽기 오히려 어려워요. 읽는게 좀 피곤해요. >> 그럼 5.4를 보통 최치피티로 아니면 코덱스로 많이 쓰는 거예요? 코덱스도 발전을 많이 했더라고. 일단은 >> 클로드 코드에서 쓰던 스킬들을 최대한 품으려고 하는 거 같고. 뭐야?

05:49–06:52 ↗

>> 클로드 코드에서 쓰던 스킬들을 최대한 품으려고 하는 거 같고. 뭐야? LM이 더 작은 LM을 자율 학습하기 시작. >> 네. 오늘 하려고 하는 이야기죠요. 네. 어를 썼지. >> 자, LRM이 더 작은 LM을 자율 학습으로 >> 네. 자율로 학습하기 시작했다. >> 이제 카파시 선생님께서 >> 음 >> 바이브 코딩에 이어서 >> 오토 리서치네 오토 리서치라는 단어를 이제 또 유행어가 될 것만 같죠. LM으로 LM 학습시키기. >> 왜냐면 LM이 본인이 어떻게 학습됐는지 아니까 >> 바이브 코딩을 넘어서 바이브 ML, 바이브 트레이닝 뭐 이런 소리를 하는데 네. 요거는 네. 좀 이따 좀 더 자세히 하고요. 하네스 엔지니어링 저건 뭐 >> 요새 하네스 엔지어링이란 말도 좀 많고 카파시가 코덱스가 오토리서치 제대로 돌릴 수 없다라고 덧붙이며 >> 네. >> 어쨌든 슬래시룩 같은게 있나 보네. 그 코덱스의 슬래시룹은 제가 잘 모르겠고요. 클로드 코드에는 랄프 있잖아요. 근데 그게 그냥 원리가 간단해요. 클로드가 대답 끝내면 그냥 다시 오토 엔터예요. 제가 그거 돌려보니까 더 이상 개선이 안 된다고 판단하면 자기가 알아서 끊더라고요. >> 아, 그래? >> 저 재미난 인베딩 2. 이제 어쨌든

06:52–09:38 ↗

>> 아, 그래? >> 저 재미난 인베딩 2. 이제 어쨌든 우리가 래그 할 때 리트리버 할 때 인베딩으로 리트리버 하는 거를 많이 하잖아요. >> 네. >> 근데 리트리벌이 저 멀티모델 리트리벌이 진짜 안 돼요. >> 왜요? 그러니까 뭐가 되고 되길 원하는 거냐면 뭐 글도 있고 영상도 있고 이미지도 있고 오디오도 있고 막 그래요. >> 근데 우리가 그런 데이터들이 모여 있는 이쁘지 않은 데이터들이 막 모여 있는 상황에서 뭐 예를 들어서 고양이를 찾아라 그러면은 고양이랑 관련된 글도 나와야 되고 고양이 사진도 나와야 되고 뭐 고양이 울음소리 오디오도 나와야 되고 이런게 나와야 되잖아요. 근데 >> 그게 인베딩으로 검색이 진짜 안 되거든요. >> 근데 인베딩으로 검색하는게 맞다고 생각해요? 인베딩을 안 하면 어떻게 할 건데? 네. >> 우리가 인베딩을 쓴다는 걸 결국 보통 라그를 쓰잖아요. 근데 예를 들어서 예를 들어서 커서의 방식이 코드 베이스를 다 서버에 올린 다음에 막 인베딩 벡터 DV 같은 걸로 만들어 놓은 다음에 그것도 찾아가지고 하고 뭐 이런 식이었잖아요. >> 근데 클로드 코드의 디자인 방식 자체가 그냥 락은 모르겠고 >> 그냥 에이전트가 다 알아서 >> 키워드 서칭할 것이다. >> 네. 그거는 >> 어 >> 일단 라그가 중요한 건 아닌 거 같고요. 라그는 예실뿐인 거 같고 리트리벌이라는 걸 구현한다. 그니까는 걸 구현하 있어서 >> 우리가 뭐 키워드 서치를 할 수도 있고 그걸 찾을 때 이제 랭킹 뭐 이런 것도 되게 중요하고 >> 전에 어쨌든 저 의미적으로 알아서 비슷한 걸 잘 찾아준다 이런 거를 인베닝 기반의 서치 말고는 구현하기가 진짜 어려운 거 같거든요. 예를 들어서 우리 회사의 비밀 어떤 뭐 프라이빗한 데이터베이스가 있는 장비 매뉴얼이라던가 뭐 이런게 있는데 아 나 그거 어디서 봤는데 응 >> 그거 뭐였지? 하면서 찾을 때 저거보다 더 좋은 방법이 지금 저는 모르겠어요. 그냥 대충 의미적으로 비슷한 걸 찾는 거. 근데 이게 텍스트 세상에선 지금 잘 되는데 >> 근데 물론 이미지나 오디오나 비디오는 >> 어 그러게 이거는 >> 잘 안 돼요. >> 그래서 제가 저 이미지랑 저 정확히는 이미지랑 글이랑 모든게 다 복합적으로 섞여 있는 ppt 리트리버를 열심히 했는데 그 제가 진짜 열심히 해본 결과 이미지랑 이런 것들을 다 한번 멀티모델 모델을 돌려 가지고 텍스트로 재해석을 해 놓은 다음에 그걸로 인베딩 찾는게 훨씬 낫더라고요. 근데 이제 네이티브 멀티모델 인베딩이 너무 다 안 좋았어요. 검색이 외그보다는 크로스텐션 용으로 쓰더라고요. 어, 그것도 좋을 거 같아. 결국 저게 리트리벌 인베딩 벡터에 쓰는 방법, 응용 방법 중 하나일 뿐이지 저거를 어디다 쓰던 우리 마음이잖아요. 사실 >> 결국 인베딩 벡터도 그냥 레프레젠테이션이니까. 네. 크로스 텐션으로 쓰더라고요. 그건 저도 잘 몰랐네요. >> 아무튼 지금 이게 그래서 좋다는 거예요. >> 좋은지 안 좋은지 저도 안 써 봐서 모르죠. 근데 나왔다. 원이 진짜 옛날에 나왔거든요. 엄청 오랜만에 멀티모델 인베딩이라는게 나왔다. 드디어 왔네.

09:38–11:32 ↗

멀티모델 인베딩이라는게 나왔다. 드디어 왔네. >> 드디어 원밀리언 컨택트 기본 제공. 아니 이게 내가 엊그 엊그제적인가 클로즈 딱 쳤어요. >> 네. >> 근데 저는 그 테이터 스바에 모델명이 나오거든요. >> 근데 모델명에 오퍼스 슬래시 열고 아니 괄호 열고 원밀리언이라 써 있는 거야. 응. >> 나 그래서 황급하게 끌려고 했지. >> 예. 박금 될까 봐. >> 근데 그거밖에 없는 거야. 알고 보니까이 기본 제공이래. 어쩐지. 그래서 그 저는 그 스테이터스바에 그 100% 그 컨텍스트 얼마나 차지했는지 보는데 >> 안 차. 나 지금 여태까지 뭔 짓을 해도 30%까지 넘어간 적이 없었던 거 같아요. 나는 >> 그거 다 미디엄으로 쓰나? >> 저는 그냥 미디엄으로 써요. >> 근데 아무튼 이제 컨텍스트 압박이 없으니까 삶이 너무 편하다. >> 음. 그럼 콤팩트는 직접해요. >> 콤팩트 할 쯤에 그냥 그 플랜 모드 켠 다음에 플랜 모드 켜면은 이제 그다음에 얘가 그다음에 알아서 컨텍스트 줄이고 하잖아요. 그리고 요새는 그 슬래시 BTW 많이 써요. 뭔지 알아요? 막 하다가 >> 근데 얘가 막 뭔지 막 해. 근데 중간중간에 내가 막 물어 궁금한 거 있잖아. 그러면 내가 슬래시 BTW 한 다음에 >> 아 브랜치 파서 하고는 거구나. 아 맞다. >> 어 그런 잡 잡기능들이 좀 많이 나와서 좀 고맙다. >> 아 근데 그건 진짜 클로드 코드 잘하는 거 같아. 엔트로픽이 유저들이 필요할 만한 하네스들을 진짜 기능들을 잘 만들어 주는 거 같아요. 따라가기가 진짜 힘들지인데 음 >> 확실히 잘하는 거 같다. 근데 왜 이제 원밀리언 제공하는 거임 수지 타 때문이지 않을까요? >> 근데 그게 아마 원빌리언 컨텍스트가 잘 돼야 그걸 >> 지원하는 거랑 저 컨텍스트를 꽉 채웠을 때 똑똑한 거랑 또 다른 얘기니까 꽉 채우면 점점 멍청해지는 기분을 많이 느끼잖아요 저희가. >> 응. 이거 보면은 그 롱컨텍스트 리트리블 이것도 니들리너 헤이스틱 뭐 이런 건가? 이거 보면은 >> 지금 256K가 보통 많이 쓴 거고 원밀리언이 여긴 건데 보면은 당연히 원밀리언으로 갈수록 성능이 안 좋아져요. 아무튼 >> 네. >> 어느 정도 완성도가 됐으니까 배포를 했겠죠. >> 그럼 저것만 한번 하고 넘어갈까?

11:32–12:35 ↗

했겠죠. >> 그럼 저것만 한번 하고 넘어갈까? 코덱스랑 클로드 코드랑 뭐 체감상 의견 정도만. >> 결국은이 클로드 코드라는 한네 너무 익숙해지니까. >> 음. >> 다른데도 적응하는데 거의 >> 적응이 안 돼. 잘 그 예를 들어서 클러드코드 위주로 짜놓은 스킬들이 있잖아. 근데 코덱스에서는 그 서브에전트가 아직 지원을 안 하니까 안 돌아. 에스크 유저 코스천도 있잖아. 그게 코덱스에 없어. >> 아 맞아요. 맞아요. 그거 진짜 좋은데. >> 갑자기지가 막 그냥 >> 응. >> 그냥 유저의 답변을 예측하고 해. >> 약간 그래서 코덱스의 그 들쭉날쭉함이 저는 좀 있 있었어요. >> 음. >> 그게 사실 >> 내가 짜 놓은 그 한네에 맞춰 놓은 스킬이 클로드코드에 맞는 거니까 좀 억울한 비교일 거 같아서 >> 음. 그렇지만 >> 그렇겠죠. >> 포텍스 5.4로 >> 졸로 돌려봐. 좀 돌려봤을 때 그렇게 나빴던 거 같진 않다. >> 그래서 >> 토큰 모자를 뗐으면 좋겠다. >> 아, 저는 최근에 5.4 나오고 느꼈던게 원래 코덱스가 그 엑스트라 하이를 켜면은 >> 진짜 느렸거든. 근데 많이 빨라졌어요. 이번에. >> 그거는 확실히 좋은 거 같아요. >> 네. 뭐 뉴스 여기까지 할까요?

12:35–13:11 ↗

>> 그거는 확실히 좋은 거 같아요. >> 네. 뭐 뉴스 여기까지 할까요? >> 음. 그래서 진짜 가면 갈수록 진짜 많이 발전하기 때문에 그 클로드 코드도 이제 1년 됐잖아요. >> 네. 근데 세상을 이렇게 많이 바꾸고 있다는게 세상도 바꾸고 사실 내가 원하 내가 일하고 있는 워플로우도 많이 바꿔 주고 있고 >> 아니 우리 지금 보고 있는이 뉴스도 >> 응 >> 이거 코드는 클코가 짜 준 거고 >> 진짜 뉴스 요약은 이건 사실 코덱스입니다. >> 요새 저희 뭐 >> 주변에 다 하는 말이 막 이거 했는데 근데 제가 앉아서 모르겠어요. 뭐 말까지 >> 어 그러니까 저 거짓말 안 치고 이거 >> 코드 한 줄도 안 봤어요. >> 응 >> 코드 빵 줄 봤습니다. 충분하지 뭐.