rtk - LLM 토큰 소비를 60~90% 줄여주는 CLI 프록시
(github.com/rtk-ai)- AI 코딩 도구가 실행하는 CLI 명령어 출력을 LLM에 전달하기 전에 필터링·압축해 토큰을 60~90% 절감하는 단일 Rust 바이너리(윈/맥/리눅스)
- git, grep, ls, cargo test 등 100개 이상의 명령어를 지원하며, 명령어 출력을 LLM 컨텍스트에 전달하기 전에 스마트 필터링·그룹핑·트렁케이션·중복 제거의 4가지 전략을 적용
-
Claude Code, Codex, Cursor, Gemini CLI 등 10개 AI 코딩 도구를 지원하며, 훅(hook) 설치 시 bash 명령어를 자동으로 rtk의 같은 명령어로 투명하게 재작성
- 이 후크는 Bash 도구 호출에만 적용되며, Claude Code의 내장 도구인
Read,Grep,Glob등은 이 후킹을 우회하므로 RTK 필터링을 적용하려면 셸 명령이나 명시적인 rtk 명령을 사용해야함
- 이 후크는 Bash 도구 호출에만 적용되며, Claude Code의 내장 도구인
- 30분 Claude Code 세션 기준 예상 절감량은 표준 ~118,000 토큰 대비 ~23,900 토큰(약 80% 절감)
-
cargo test/npm test,pytest,go test등 테스트 러너에서는 최대 90%까지 절감
-
- 시작방법
# 1. 설치하기 rtk init -g # Claude Code / Copilot (default) rtk init -g --gemini # Gemini CLI rtk init -g --codex # Codex (OpenAI) rtk init -g --agent cursor # Cursor # 2. 이후에 AI 도구를 재시작 git status # 이제 rtk git status로 동작 - Apache-2.0 라이선스
전에 써봤는데 자꾸 Claude가 rtk로 인한 문제를 해결하기 위한 토큰을 더 많이 소모하기에 제거했습니다.
(예를 들어, curl로 json 요청을 하면 invalid json 을 생성해서 jq 가 에러를 떨구고, 이를 claude 가 디버깅을 하면서 토큰을 녹이고 결국 raw한 curl 요청을 다시 받아와서 jq로 파싱하는 상황)
그래도 의도 자체는 좋은 시도라고 생각해서 안정화 되면 써볼만 할 것 같아요.
개인적으로도 사용해보고 있긴한데요.. rtk 압축으로 인해, Claude Code 가 필요한 컨텍스트를 명령어 결과에서 확보 못하는 경우도 있어서 Case by Case 인것 같네요.
다른 유저들 사용사례에 약간의 부작용이 있는것 같네요.
빠른 시일내로 극복하고 잘 적용되길 바래봅니다.
https://reddit.com/r/ClaudeCode/…
아이디어 좋네요
그런데 학습이 일반 cli output 기준으로 되었을거니까 이렇게 condense 하면 출력이 이전처럼 잘 나올까 하는 우려가 약간 있습니다
한번 써보겠습니다