배경
한 달 동안 Claude Code로 별별 프로젝트를 다 했다. Knowledge Graph 파이프라인, Flutter 명함 앱, 스킬 만들기, 리서치, PPT 자동화…
근데 어느 순간 같은 실수를 반복하는 느낌이 들었다. "버그 고쳤다고 했는데 또 같은 데서 터지네", "프로젝트 맥락을 자꾸 까먹네" 같은 패턴.
이걸 직접 정리하려면 한 달치 대화를 다 뒤져야 한다. 반나절은 그냥 날아간다.
과정
1. /insights 한 줄로 한 달치 자동 분석
58세션, 1,237 메시지, 175 커밋이 한 번에 분석됨
"Wrong Approach 53회, Buggy Code 53회, Misunderstood Request 27회"
어디서 마찰이 생겼는지 숫자로 딱 나옴
가장 시간 많이 잡아먹은 프로젝트, 자주 쓴 도구, 만족도 분포까지
2. 분석 결과 → 글로벌 CLAUDE.md 규칙 4개 추가
가정 금지: 프로젝트 맥락을 추측하지 말고 코드 먼저 읽기
버그 수정 프로토콜: 엣지케이스 전수 확인 (firstMatch만 잡지 말기)
결과물 품질: 리서치 결과에 실제 내용 포함 (요약/플레이스홀더 금지)
환경 체크: WSL/Windows 셸 구분, UTF-8 인코딩
처음에 실수로 프로젝트 CLAUDE.md에 넣었는데 "이거 글로벌 아니야?" 한 마디에 바로잡았다.
3. Hooks 2개 자동화
post-edit-tests.sh: 편집할 때마다 프로젝트 타입 자동 감지해서 테스트 실행 (Flutter/Python/Node)
pre-commit-validate.sh: 커밋 전에 TODO/FIXME, 디버그 print, 린트 자동 검증
4. /parallel-research 스킬 신규 제작
3개 에이전트를 동시에 디스패치해서 (웹 리서치 + 내부 분석 + 경쟁 비교) 통합 문서로 합성하는 패턴.
5. 자기검증에서 함정 발견
설정 다 끝내고 자기검증을 돌렸더니 — jq가 미설치였다. 두 hook 다 jq로 JSON 파싱하게 짜놨는데 동작 안 하는 상태였던 것. 바로 python으로 교체해서 살려냈다.
자기검증 안 했으면 동작 안 하는 hook을 그대로 두고 "다 됐어요" 했을 뻔.
결과
한 달치 사용 패턴 분석 + 자동화 셋업 = 한 세션 안에 완료
Claude Code 없이 했다면 반나절 이상
앞으로 모든 프로젝트에서 편집할 때마다 테스트 자동 실행, 커밋 전 자동 검증
글로벌 규칙 덕에 어떤 프로젝트에서든 같은 실수 반복 감소
배운 점
"Claude한테 내 사용 패턴을 분석시키는 것" 자체가 메타 활용이다
분석 결과를 읽고 끝나는 게 아니라 그 자리에서 hooks/규칙/스킬로 자동화 연결할 수 있다
자기검증 한 번 더 돌리는 게 진짜 중요하다 (jq 문제 못 잡았으면 무용지물 hook 방치)
큰 한 방보다 "전체적으로 편했음"이 진짜 가치 — 마찰이 사라지는 게 자동화의 본질이다