34P by xguru 4일전 | ★ favorite | 댓글 9개
  • AI 코딩 도구가 실행하는 CLI 명령어 출력을 LLM에 전달하기 전에 필터링·압축해 토큰을 60~90% 절감하는 단일 Rust 바이너리(윈/맥/리눅스)
  • git, grep, ls, cargo test 등 100개 이상의 명령어를 지원하며, 명령어 출력을 LLM 컨텍스트에 전달하기 전에 스마트 필터링·그룹핑·트렁케이션·중복 제거의 4가지 전략을 적용
  • Claude Code, Codex, Cursor, Gemini CLI 등 10개 AI 코딩 도구를 지원하며, 훅(hook) 설치 시 bash 명령어를 자동으로 rtk의 같은 명령어로 투명하게 재작성
    • 이 후크는 Bash 도구 호출에만 적용되며, Claude Code의 내장 도구인 Read, Grep, Glob 등은 이 후킹을 우회하므로 RTK 필터링을 적용하려면 셸 명령이나 명시적인 rtk 명령을 사용해야함
  • 30분 Claude Code 세션 기준 예상 절감량은 표준 ~118,000 토큰 대비 ~23,900 토큰(약 80% 절감)
    • cargo test/npm test, pytest, go test 등 테스트 러너에서는 최대 90%까지 절감
  • 시작방법
    # 1. 설치하기  
    rtk init -g                     # Claude Code / Copilot (default)  
    rtk init -g --gemini            # Gemini CLI  
    rtk init -g --codex             # Codex (OpenAI)  
    rtk init -g --agent cursor      # Cursor  
    # 2. 이후에 AI 도구를 재시작  
    git status  # 이제 rtk git status로 동작   
    
  • Apache-2.0 라이선스

결국 품질과의 트레이드오프고 잃어버린 품질을 복원하기 위해 토큰을 더 쓰는 구조가 되진 않을까 그런 걱정도 듭니다

전에 써봤는데 자꾸 Claude가 rtk로 인한 문제를 해결하기 위한 토큰을 더 많이 소모하기에 제거했습니다.
(예를 들어, curl로 json 요청을 하면 invalid json 을 생성해서 jq 가 에러를 떨구고, 이를 claude 가 디버깅을 하면서 토큰을 녹이고 결국 raw한 curl 요청을 다시 받아와서 jq로 파싱하는 상황)
그래도 의도 자체는 좋은 시도라고 생각해서 안정화 되면 써볼만 할 것 같아요.

정말 줄어주는건지 모르겠음. agent가 자꾸 rtk ls.. 명령어 쓰라고 해줬더니 안씀

개인적으로도 사용해보고 있긴한데요.. rtk 압축으로 인해, Claude Code 가 필요한 컨텍스트를 명령어 결과에서 확보 못하는 경우도 있어서 Case by Case 인것 같네요.

저도 그부분에서 아쉬움이 았었는데요!

최근에 업데이트된게 full output을 별도 파일로 남겨서 llm이 필요하면 읽을수 있게 해줘요~

다른 유저들 사용사례에 약간의 부작용이 있는것 같네요.
빠른 시일내로 극복하고 잘 적용되길 바래봅니다.
https://reddit.com/r/ClaudeCode/…

잘 줄여준다면, 너무 좋을 듯 하네요!

아이디어 좋네요
그런데 학습이 일반 cli output 기준으로 되었을거니까 이렇게 condense 하면 출력이 이전처럼 잘 나올까 하는 우려가 약간 있습니다
한번 써보겠습니다

contextmode랑... 비교를 해봐야겠군요