Show GN: AI가 거짓말 못 하게 만드는 완벽한 방법 - leceipts
(github.com/0oooooooo0)AI 코딩 도구를 쓰다 보면 묘하게 반복되는 상황이 있습니다.
버그를 설명하면
→ “문제 수정했습니다”
→ 실행해보면 여전히 깨짐
이게 단순히 AI 문제라기보다,
사람 코드 리뷰에서도 익숙한 패턴이기도 합니다.
• “아마 이거면 될 듯”
• “로컬에서는 잘 됨”
• “테스트는 안 돌렸지만 문제 없어 보임”
leceipts는 이걸 태도나 문화가 아니라
프로세스로 해결하려는 접근입니다.
코드 변경을 할 때마다, 아래 내용을 구조적으로 남기도록 강제합니다:
• Root cause: 문제가 왜 발생했는지
• Change: 실제로 어떤 수정이 들어갔는지
• Recurrence prevention: 같은 문제가 반복되지 않게 하는 방법
• Verification: 어떻게 검증했고, 결과가 무엇인지
• Remaining risk: 아직 확인되지 않은 부분
여기서 핵심은 “Verification”입니다.
단순히 “테스트했다”가 아니라,
어떤 방식으로 확인했고 결과가 어땠는지까지 기록하게 만듭니다.
이 구조가 생기면 몇 가지 변화가 생깁니다
- AI의 허언 방지
“fixed”라고 말하는 대신, 실제 실행 결과를 남겨야 함
→ 안 돌려봤으면 바로 드러남 - 사람 코드 리뷰 퀄리티 상승
PR 설명이 “감”이 아니라 “근거” 중심으로 바뀜 - 디버깅 히스토리가 자산이 됨
왜 깨졌고 어떻게 고쳤는지가 누적됨
→ 같은 문제 반복 방지 - ‘Done’의 기준이 명확해짐
수정 ≠ 완료
검증까지 끝나야 완료
흥미로운 점은, 이게 새로운 테스트 프레임워크나
복잡한 툴이 아니라는 겁니다.
그냥
“설명 방식을 강제하는 것만으로 개발 프로세스를 바꾼다”는 접근입니다.
AI 코딩이 점점 많아질수록,
이런 “검증 중심 워크플로”가 기본값이 될 수도 있겠다는 생각이 듭니다.