▲llama.cpp 에 전체 CUDA GPU 가속 추가 (github.com/ggerganov)8P by xguru 2023-06-14 | ★ favorite | 댓글과 토론 모든 남은 ggml 텐서들에 GPU 가속을 추가하는 PR RTX 3090에서 프롬프트 처리는 2배, 토큰 생성은 1.3~1.8배까지 가속 4090+i9에서 7B q4 모델의 경우 초당 109토큰 생성 함께 보면 좋은 글 β ntransformer - 싱글 RTX 3090에서 Llama 3.1 70B를 실행하는 NVMe-to-GPU 추론 엔진 Gerbil - 로컬 LLM 실행용 데스크톱 앱 GGML·llama.cpp, Hugging Face 합류 Llama.cpp 이제 비전 기능 지원 (멀티모달 입력) 컨텍스트 변질: 입력 토큰이 많아질수록 LLM 성능이 어떻게 변하는가 인증 이메일 클릭후 다시 체크박스를 눌러주세요