▲talk-llama - 터미널에서 LLaMA와 대화하기 (github.com/ggerganov)10P by xguru 2023-11-11 | ★ favorite | 댓글 1개 Whisper Medium(Whisper.cpp) + LLaMA v2 13B Q8_0 을 M2 Ultra에서 시연 Whisper로 음성인식하여 해당 질문을 LLaMA에게 보낸뒤 답변을 MacOS의 음성합성(say 명령)을 이용해서 출력 세션 관리를 지원해서 기존 대화 내용에 기반한 연속적인 대화 가능 함께 보면 좋은 글 β seCall 터미널에이전트 대화 로그를 옵시디언에 정리하고 기억으로 사용해보세요 TmuxAI - Tmux 안의 AI 페어 프로그래머 ntransformer - 싱글 RTX 3090에서 Llama 3.1 70B를 실행하는 NVMe-to-GPU 추론 엔진 미래의 터미널 LLM과의 대화가 내 사고를 향상시킨 이유 인증 이메일 클릭후 다시 체크박스를 눌러주세요 ▲ragingwind 2023-11-13 [-]13B 는 울트라에서 잘 되는거 같아요. M3 Max 에서는 어떨까 궁금하네요 답변달기