-
Anthropic과 OpenAI가 각각 자사 최고 코딩 모델의 ‘fast mode’ 를 공개하며 추론 속도를 대폭 향상시킴
- Anthropic은 Opus 4.6 모델을 그대로 사용하면서 배치 크기를 줄여 최대 2.5배 빠른 토큰 처리 속도를 제공
- OpenAI는 Cerebras 칩 기반의 새로운 모델 GPT-5.3-Codex-Spark를 도입해 초당 1000토큰 이상을 생성하지만, 정확도는 낮은 편
- 두 접근법은 각각 저배치 추론과 초대형 칩 기반 인메모리 추론이라는 전혀 다른 기술적 원리를 사용
- 빠른 추론은 기술적으로 인상적이지만, 속도보다 정확성이 더 중요하다는 지적과 함께 경제성·활용성은 아직 불확실함
Anthropic의 Fast Mode 구조
- Anthropic의 방식은 배치 크기를 줄여 지연 시간을 최소화하는 형태
- GPU의 주요 병목은 메모리 전송이며, 여러 사용자의 요청을 묶는 배칭은 처리량을 높이지만 대기 시간을 증가시킴
- Fast mode는 사용자가 요청하자마자 즉시 처리되는 ‘즉시 출발 버스’ 에 비유됨
- 이 방식은 6배 높은 비용으로 2.5배 빠른 속도를 제공
- 배치 대기 시간이 사라져 첫 토큰까지의 지연이 줄어듦
- 다만 GPU 전체 처리량은 감소함
- 일부 독자는 첫 토큰 이후에는 대기 시간이 크지 않다고 지적했으며, 저배치의 효과는 연산량 감소로 인한 실행 속도 향상에 더 가깝다고 설명됨
OpenAI의 Fast Mode 구조
- OpenAI는 Cerebras 칩을 활용해 완전히 다른 접근을 취함
- 기존 모델 대신 GPT-5.3-Codex-Spark라는 경량화(distilled) 모델을 사용
- Spark는 원본보다 덜 정교하지만 15배 이상 빠른 추론 속도를 달성
- Cerebras 칩은 70제곱인치 크기의 초대형 웨이퍼 스케일 칩으로, SRAM 44GB를 내장
- 모델 전체를 SRAM에 적재해 외부 메모리 접근 없이 인메모리 추론 수행
- GPU의 수십MB 수준 SRAM 대비 큰 차이를 보임
- Spark 모델은 여러 Cerebras 칩에 샤딩(sharding) 되어 상주하는 것으로 추정되며, 이 구성이 속도 향상의 핵심 요인으로 언급됨
기술적 비교와 평가
- Anthropic은 기존 모델을 그대로 유지하면서 단순히 배치 정책을 조정
- OpenAI는 새로운 하드웨어 아키텍처와 모델 설계를 결합해 더 근본적인 성능 향상을 달성
- Cerebras 칩 위에서 모델을 구동하는 것은 복잡한 기술적 도전이며, Spark 모델의 학습 또한 쉽지 않은 작업으로 평가됨
- 두 회사의 접근은 속도 향상이라는 동일 목표를 서로 다른 기술적 경로로 달성한 사례로, OpenAI의 방식이 기술적으로 더 인상적으로 평가됨
빠른 추론의 의미와 한계
- 두 회사의 발표가 이어지면서 ‘빠른 AI 추론’이 차세대 경쟁 축으로 보이지만, 실제로는 전략적 대응 성격이 강함
- Anthropic은 OpenAI의 발표에 맞춰 빠르게 대응한 것으로 보임
- OpenAI는 Cerebras 협력의 실험적 결과를 공개한 단계
- 빠르지만 덜 정교한 모델은 실제 활용도에서 한계가 있음
- 사용자는 모델의 오류를 처리하는 데 더 많은 시간을 소비하므로, 속도보다 정확성이 중요
- 다만 이러한 ‘저정확도·고속 추론’ 모델이 AI 시스템의 하위 구성요소로 활용될 가능성은 있음
- 예: Claude Code의 Haiku 사용 사례, OpenAI의 Spark 내재화 가능성
커뮤니티 논의와 추가 관찰
- Hacker News에서는 배칭의 성능 특성과 칩 간 통신 병목에 대한 다양한 의견이 제시됨
- 일부는 연속 배칭(continuous batching) 으로 대기 시간이 거의 없다고 주장
- 다른 이들은 칩 간 연결이 추론 속도에 영향을 미친다고 반박
- 작성자는 배치 크기와 지연 시간의 상충 관계는 여전히 존재한다고 정리
- Anthropic은 첫 토큰 지연이 여전히 느릴 수 있음을 명시했고, OpenAI는 웹소켓 기반 지속 연결로 이를 최소화하려 함
- 전체적으로 빠른 LLM 추론의 구조는 복잡하며 단순한 모델로 설명하기 어렵다는 결론