그러면 더 잘 예측하는 모델이라고 중간에서 만나면 될거같아요 😄

음.. 어쩌면 제 의도와 다르게 글이 전달된 걸지도 모르겠다는 생각이 드네요. 만약 이 글에서 LLM의 기술적인 가치를 폄하하는 것 같이 느껴졌다면 사죄드립니다.

다만, 이 글의 의도는 과장된 포장과 신비화를 걷어내고 냉정하게 보자는 뜻이었습니다. 그래서 개인적으로 '목표를 달성하는 모델'이라고 표현하면 신비화가 된 것으로 느껴집니다. 결국 일반 소프트웨어든 모델이든 어떠한 '목표'를 달성하기 위함이기도 하구요.

그래서 개인적인 궁금함을 더해서 말씀하신 표현이 좀 더 기술적으로 정확한건지 다시 여쭈어보고 싶습니다.

기승전Analytics 광고로 보이긴합니다. 그럴듯한데 결국 광고라 hada.io 운영자님이 너무 방치플 하시는거 같기도해요

결국 품질과의 트레이드오프고 잃어버린 품질을 복원하기 위해 토큰을 더 쓰는 구조가 되진 않을까 그런 걱정도 듭니다

bm25가 한글 검색에 약해서 따로 한국어도 잘 검색할 수 있는 가드레일도 적용해 두었습니다

큰 맥락에선 과거 대화의 검색이라 정리 이슈만 교통정리를 잘하면 좋은 아이디어 같아요. 실제 저도 프로젝트 정리에 큰 도움이 되었다고 봅니다.

저도 구현해 봤습니다. 여러 하드웨어 사용 중일때 옵시디언 볼트를 github 백업으로 연동할 수 있게 조금 추가했구요. 코덱스, 제미나이용 파서도 만들어서 넣어뒀습니다. https://github.com/hang-in/seCall

현대의 LLM을 "다음 단어 예측" 이라고 치부 할거라면 AlphaGo도 "다음 수 예측"에 불구해요.

ChatGPT 부터 다음 단어 예측은 단순 pre-trained에 불구하고요.

헌재는 목표를 달성하는 모델이죠

듣기로는 커널 개발자들이 약 10-20년 가까이 PostgreSQL 개발자들에게 '유저랜드에서의 스핀락은 권장하지 않으니 다시 생각해 주었으면 좋겠다' 라고 얘기했었다고 하네요..

https://x.com/kosaki55tea/status/2040458791536497035

이미 Claude code agent team을 사용하고 있다면, 특별할 것은 없었습니다.
하지만 팀 구성 정보 등 새로운 세션에서도 이어할 수 있도록 agents나 skills를 활용하여 인프라를 구축하는 것이 편리했습니다.
수동으로 팀을 구성하면 팀을 위한 보일러플레이트 같은 것들이 반복되었거든요.

문제가 하나 있었는데, subagent와 agent team 모두 고려한 환경이다 보니, Supervisor 패턴에서, 감독자가 팀이 생성되어 있음에도 subagent에 작업을 위임하는 엉뚱한 상황이 종종 발생합니다.

https://github.com/google-ai-edge/gallery/issues/437

엑시노스 호환성이 나쁜가봅니다. 갤럭시 퀀텀 5(A55)에서 한자를 무한히 반복해 대답하는 문제점이 있네요.

GPT 이후의 시중에 나온 대형 언어 모델들은 확산 모델 사용한 것 몇몇 제외하곤 모두 다음 토큰을 예측하는 형식인줄 알고 있었는데 다른 방식으로 작동하는 모델이 있으면 알려주시면 고마울 것 같습니다

대칭형 25기가랜이 존재하는줄도 몰랐네요. 10기가급도 가정에서는 넘친다고 생각했는데...

전에 써봤는데 자꾸 Claude가 rtk로 인한 문제를 해결하기 위한 토큰을 더 많이 소모하기에 제거했습니다.
(예를 들어, curl로 json 요청을 하면 invalid json 을 생성해서 jq 가 에러를 떨구고, 이를 claude 가 디버깅을 하면서 토큰을 녹이고 결국 raw한 curl 요청을 다시 받아와서 jq로 파싱하는 상황)
그래도 의도 자체는 좋은 시도라고 생각해서 안정화 되면 써볼만 할 것 같아요.

저도 그부분에서 아쉬움이 았었는데요!

최근에 업데이트된게 full output을 별도 파일로 남겨서 llm이 필요하면 읽을수 있게 해줘요~

공홈 리뉴얼은 그누보드7 출시 이전에 했습니다.

기본 스티커가 묘하게 통일성이 떨어져서 아쉬웠는데, 잘 쓰겠습니다~

이래서 새로 짜는게 더 빠른 경우가 생기기도 하죠.