15P by GN⁺ 5시간전 | ★ favorite | 댓글과 토론
  • Claude Platform에서 어드바이저 전략이 공식 도입됨 — Opus를 어드바이저로, Sonnet 또는 Haiku를 실행자(executor)로 조합해 비용은 낮추면서 Opus 수준에 근접한 추론 능력을 에이전트에 적용하는 패턴
  • Sonnet이 태스크를 단독 수행 시보다 Opus 어드바이저 결합 시 SWE-bench Multilingual 점수가 2.7%p 향상되었고, 에이전트 태스크당 비용은 11.9% 절감됨
  • Haiku + Opus 어드바이저 조합은 BrowseComp 기준 41.2%로 Haiku 단독(19.7%)의 두 배 이상 성능을 기록했으며, Sonnet 단독 대비 비용은 85% 절감
  • advisor_20260301 툴을 Messages API 요청에 선언하면 단일 /v1/messages 요청 안에서 모델 핸드오프가 완료되며, 추가 왕복 요청이나 컨텍스트 관리 없이 작동
  • 어드바이저 토큰은 어드바이저 모델 요금으로, 실행자 토큰은 실행자 모델 요금으로 각각 별도 청구되어 비용 추적 및 통제가 가능한 구조

어드바이저 전략 개요

  • Sonnet 또는 Haiku가 실행자로서 태스크를 처음부터 끝까지 수행하며, 툴 호출·결과 읽기·반복 작업을 담당
  • 실행자가 합리적으로 해결하기 어려운 결정에 도달하면 Opus에 가이던스를 요청하고, Opus는 공유 컨텍스트를 참조해 계획·수정·중단 신호 중 하나를 반환
  • 어드바이저(Opus)는 툴을 직접 호출하거나 사용자 대면 출력을 생성하지 않으며, 오직 실행자에 대한 가이던스만 제공
  • 이 구조는 큰 오케스트레이터 모델이 작업을 분해해 소형 워커 모델에 위임하는 기존 서브에이전트 패턴을 역전시킨 형태로, 별도의 워커 풀이나 오케스트레이션 로직 없이 작동
  • 프론티어 수준의 추론은 실행자가 필요로 할 때만 적용되고, 나머지 실행 구간은 실행자 모델 비용으로 유지됨

성능 평가 결과

  • Sonnet + Opus 어드바이저 조합은 SWE-bench Multilingual에서 Sonnet 단독 대비 2.7%p 향상, 에이전트 태스크당 비용은 11.9% 절감
  • BrowseComp, Terminal-Bench 2.0 벤치마크에서도 Sonnet 단독 대비 점수 향상, 태스크당 비용은 절감
  • Haiku + Opus 어드바이저: BrowseComp 점수 41.2% — Haiku 단독(19.7%)의 두 배 이상
    • Sonnet 단독 대비 점수는 29% 낮지만, 태스크당 비용은 85% 절감
    • 어드바이저 추가로 Haiku 단독 대비 비용 증가가 있으나, 결합 비용은 여전히 Sonnet 대비 훨씬 낮은 수준

Advisor Tool 사용법

  • advisor_20260301을 Messages API 요청에 선언하면 단일 /v1/messages 요청 내에서 모델 핸드오프 완료 — 추가 왕복 요청이나 컨텍스트 관리 불필요
  • 실행자 모델이 어드바이저 호출 시점을 자체 판단하며, 큐레이션된 컨텍스트가 어드바이저 모델로 전달되고 계획이 반환됨
  • max_uses 파라미터로 요청당 어드바이저 호출 횟수 상한 설정 가능
  • 어드바이저 토큰은 usage 블록에 별도 보고되어 티어별 지출 추적 가능
  • 기존 툴(웹 검색, 코드 실행 등)과 동일한 루프에서 함께 사용 가능
response = client.messages.create(  
    model="claude-sonnet-4-6",  # executor  
    tools=[  
        {  
            "type": "advisor_20260301",  
            "name": "advisor",  
            "model": "claude-opus-4-6",  
            "max_uses": 3,  
        },  
        # ... your other tools  
    ],  
    messages=[...]  
)  

요금 구조

  • 어드바이저 토큰은 어드바이저 모델(Opus) 요금으로 청구, 실행자 토큰은 실행자 모델(Sonnet/Haiku) 요금으로 청구
  • 어드바이저는 짧은 계획(통상 400~700 텍스트 토큰)만 생성하고, 전체 출력은 실행자가 낮은 단가로 처리하므로 전체 비용은 어드바이저 모델 단독 실행 대비 크게 낮은 수준 유지

사용자 피드백

  • Eve Legal ML 엔지니어: "Haiku 4.5가 복잡도에 따라 Opus 4.6을 참조해 동적으로 지능을 확장, 프론티어 모델 수준 품질을 5배 낮은 비용으로 달성"
  • Bolt CEO: "복잡한 태스크에서 더 나은 아키텍처 결정을 내리며, 단순 태스크에서는 오버헤드 없음 — 계획과 실행 궤적의 차이가 확연함"
  • Genspark CTO: "에이전트 턴, 툴 호출, 전체 점수에서 명확한 개선 — 자체 개발한 플래닝 툴보다 우수한 결과"

시작하기

  • 현재 Claude Platform에서 베타로 제공
  • 시작 절차:
    1. 베타 기능 헤더 추가: anthropic-beta: advisor-tool-2026-03-01
    2. Messages API 요청에 advisor_20260301 추가
    3. 사용 케이스에 맞게 시스템 프롬프트 수정
  • Sonnet 단독 / Sonnet + Opus 어드바이저 / Opus 단독 세 가지 구성을 기존 eval suite로 비교 실행 권장