Anthropic에서 나온 두가지 대조적인 소식입니다.
하나는 너무 강력해서 일반 공개를 하지 않기로 한 모델이고요.
다른 하나는 기존 사용자들의 "모델이 열화되고 있다"는 체감에 대한 것입니다.
포커스
AI의 능력이 자원보다 빠르게 성장하면, 무슨 일이 벌어질까요.
공개할 수 없는 모델
Anthropic이 Claude Mythos를 공개했습니다. 정확히는, 공개하지 않기로 했다는 걸 공개한 거죠.
Mythos Preview는 OpenBSD, FFmpeg, FreeBSD에서 수십 년간 발견되지 않은 알려지지 않은 제로데이 보안 취약점을 자율적으로 찾아낸다고 합니다. 찾는 것만이 아니라, 그 취약점을 실제로 공격할 수 있는 코드까지 생성하구요. 사이버보안 역량 평가 보고서에 따르면 기존 언어 모델을 모든 보안 지표에서 압도하는 수준입니다.
그래서 일반 공개 대신 'Project Glasswing'이라는 이름으로 Amazon, Apple, Google, Microsoft 등 선별 파트너에게만 제한 배포됐습니다. AI 모델이 "너무 잘해서 공개를 못 한다"는 판단이 내려진 건 이례적이구요.
Stratechery의 Ben Thompson은 이렇게 평했습니다. "Anthropic이 옳다면, 그 우려는 우리가 생각하는 것보다 훨씬 심각한 문제를 시사한다."
커뮤니티에서는 발표 타이밍에 대한 의문도 있었습니다. 최근 Claude Code 소스코드 유출 직후에 나온 발표라 PR용 아니냐는 시선도 있었거든요. 토큰 가격은 입력 $25, 출력 $125로 책정됐지만, 일반 사용자가 쓸 수 있을지는 아직 미정입니다.
조용히 줄어든 것들
Mythos가 화제를 모으는 동안, 기존 Claude를 쓰는 사용자들은 다른 종류의 변화를 체감하고 있었습니다.
한 사용자가 system_effort 파라미터가 85에서 25로 내려간 것을 자체 측정으로 발견했습니다. 모델의 추론 깊이, 도구 호출 빈도, 시스템 프롬프트 준수 여부를 결정하는 값인데, 쉽게 말하면 모델이 생각을 덜 하게 된 겁니다.
thinking depth(추론 깊이)가 67% 감소했다는 데이터가 공개된 후에야 Anthropic이 이를 인정했구요. Max Plan 사용자가 프롬프트 하나에 한도의 64%를 소진하는 사례도 나왔고, Anthropic 지원 AI가 한도가 5배 줄었음을 확인해준 사례까지 이어졌습니다.
핵심 원인으로 지목된 것은 'Adaptive Thinking'이었습니다. 이 기능이 켜지면 모델의 thinking 시간이 줄어들면서 품질이 함께 떨어지는 구조적 문제가 있었거든요. 환경변수 두 개를 설정하면 이전 수준으로 돌아온다는 커뮤니티 해법이 빠르게 퍼졌습니다.
$30B와 3.5GW
왜 이렇게 됐을까요. 구조적인 이유가 있습니다.
Stratechery 분석에 따르면 Anthropic은 Google, Broadcom과 2027-2031년까지 3.5기가와트 규모의 차세대 TPU(AI 전용 프로세서) 계약을 체결했습니다. 연간 환산 매출은 $30B에 도달했다는 보고도 나왔구요.
숫자만 보면 승승장구인데, 문제는 새 인프라가 2027년에야 가동된다는 겁니다. 지금은 수요가 공급을 압도적으로 넘어서는 상태죠. 정액제 ...


