한줄 요약
PASS/FAIL 기준을 세워두고 실제로 Ralph Loop를 돌려봤습니다. 54개 세션이 자동 실행되었고, 예상과 다른 교훈들을 얻었습니다. 그리고 구글 문서로 옮기는 과정에서 진짜 고통이 시작됐습니다.
이전 글 요약
Ralph Wiggum Loop로 초기창업패키지 사업 계획서 작성하기 - 1/2
[1편]에서 다뤘던 내용을 간단히 정리하면:
작년에 ChatGPT로 제안서 작성 시도 → 실패
올해는 Claude Code CLI + Task 단위 쪼개기 + Ralph Loop 전략
딥테크 기준이 모호해서 실제 선정 사례에서 역추론
20개 서브태스크로 세분화하고 각각 PASS/FAIL 기준 정의
"다음에는 실제로 Ralph Loop를 돌려볼 예정"
이번 글에서는 실제로 돌려본 결과와 그 과정에서 배운 것들을 공유합니다.
1. Ralph Loop 실제 실행: 54개 세션의 향연
run-tasks.sh 자동 실행
PASS/FAIL 기준을 정의해둔 Task들을 자동으로 실행하는 bash 스크립트(run-tasks.sh)를 만들었습니다. 구조는 단순합니다:
1. progress.txt를 읽어서 "미시작" 상태인 Task를 찾는다
2. 해당 Task에 대응하는 프롬프트를 plan-write-up.md에서 추출
3. claude -p --model opus --dangerously-skip-permissions --print 로 실행
4. 결과를 파일로 저장하고 progress.txt 상태 업데이트
5. 다음 Task로 넘어감
이걸 한 번 돌리면, 사람 개입 없이 여러 Task가 연속 실행됩니다.
실행 결과
Day 5-6에 걸쳐 총 54개 세션이 자동 실행되었습니다.
완료된 Task 목록:
Task 0.1 (분석): 챕터별 핵심 포인트, 고득점 전략, 딥테크 3요소 핵심 논리 정리
Task 1.1~1.3 + 1.R (1장 문제인식): 기업의 AI 전환 수요 폭발, 3가지 실패 지점, 기존 대안 비교표
Task 2.1~2.5 + 2.R (2장 실현가능성): CurateBot 서비스 개요, 딥테크 3요소, 차별점, 개발 로드맵, 사업비 계획
Task 3.1~3.4 + 3.R (3장 성장전략): TAM/SAM/SOM, GTM 전략, 확장 계획, IP 전략
생성된 파일:
draft/ch1-problem.md
draft/ch2-solution.md
draft/ch3-scaleup.md
한 번 돌아갈 때 약 30분 정도 걸렸던 것 같아요.
2. 예상과 달랐던 점들
교훈 1: 전체 한 번에 돌리는 것보다 섹션별로 쓰고 리뷰하는 게 나았다
처음에는 "20개 Task를 한 번에 쭉 돌리면 아침에 완성본이 나오겠지"라고 기대했습니다.
결과적으로 초안은 나왔지만, 내가 원하는 방향과 다른 부분이 많았습니다.
왜냐하면:
AI가 쓰다 보면 아이디어가 생기거나, 방향이 틀어지는 경우가 있음 - 예를 들면 불필요한 것이 추가되고 이걸 설명하기 위해서 계속 늘어남
그런데 한 번에 쭉 돌리면 중간에 방향 수정이 안 됨
결국 완성된 초안을 읽고 → 수정하고 → 다시 돌리는 작업이 필요했음
더 나은 방식:
섹션 1개 쓰기 → 리뷰 → 수정 → 다음 섹션 쓰기 → ...
이렇게 하면 중간중간 방향을 잡아줄 수 있습니다. Ralph Loop의 "성공할 때까지 반복"은 코딩에서는 테스트 통과 여부로 판단 가능하지만, 글쓰기에서는 "성공"의 기준이 내 머릿속에만 있기 때문입니다.
교훈 2: 글 쓰면서 생각이 정리된다
AI에게 시키기 전에 내가 뭘 원하는지 완벽히 알고 있어야 한다고 생각했습니다.
그런데 실제로 해보니, AI가 쓴 초안을 읽으면서 내 생각이 정리되는 경우가 많았습니다.
"아, 이렇게 쓰면 안 되겠다. 이 부분은 더 강조해야 하고, 저 부분은 빼야겠다."
이런 깨달음은 AI가 일단 뭔가를 써줘야 생기는 것입니다. 빈 페이지를 보고는 절대 안 떠오릅니다.
결론: AI와 글쓰기도 "생각을 정리하는 과정"입니다. AI가 대신 써주는 게 아니라, AI가 써준 걸 보면서 내가 뭘 원하는지 알게 되는 협업입니다.
교훈 3: 리서치는 아웃라인 단계에서 했어야 했다
처음 계획은 이랬습니다:
아웃라인 잡기
각 챕터 쓰면서 필요하면 리서치 (이걸 서브에이전트 여러개 만들어서 진행)
그런데 이게 문제였습니다. 챕터마다 AI가 리서치를 하니까:
매번 다른 출처, 다른 숫자가 나옴
앞 챕터와 뒤 챕터의 통계가 안 맞는 경우 발생
토큰 소모량 폭발 (같은 리서치를 여러 번 반복)
더 나은 방식:
아웃라인 단계에서 필요한 리서치를 미리 다 해놓고,
그 리서치 결과를 참조 파일로 만들어서
각 챕터 쓸 때 그 파일만 참조하게 함
이렇게 하면 일관성도 유지되고, 토큰도 아낍니다.
교훈 4: 토큰 한계와의 싸움
제안서 전체가 약 15페이지(A4 기준)입니다. 이걸 한 번에 리뷰 맡기려면?
Claude의 경우 약 25,000 토큰이 최대인데, 이게 대략 A4 15~20장 정도입니다. 딱 맞거나 조금 부족합니다.
해결책:
각 챕터를 요약본 + 원문 조합으로 리뷰 요청
또는 Gemini CLI 사용 (더 긴 컨텍스트 지원)
실제로 중요한 리뷰는 Gemini를 병행해서 받았습니다.
3. 서브에이전트 병렬 리뷰의 위력
Ralph Loop의 핵심 장점 중 하나는 자동화된 리뷰입니다.
각 챕터(ch1, ch2, ch3)를 다 쓴 후 Task X.R (리뷰 태스크)를 실행하면:
서브에이전트 3개가 병렬로 검토:
1. 내용 품질 검토 에이전트
2. 형식/구조 검토 에이전트
3. 딥테크 요건 검토 에이전트
이 세 에이전트가 각자의 관점에서 문제점을 지적하고, 그걸 종합해서 수정사항 목록을 만들어줍니다.
실제로 받은 피드백 예시:
❌ KPI 수치 목표가 없음
guide-proposal 권고: "누락률 X%→Y%", "완주율 A%→B%", "근거 포함률 C%" 등 정량 목표 필수
현재: "누락률, 완주율, 근거 포함률, 원가로 측정"이라고만 서술 → 현재 수치 + 목표 수치를 반드시 명시
❌ 마일스톤과 비목의 1:1 매칭 없음
guide-proposal: "무엇을 만들기 위해 어떤 비목이 필요한지가 읽히게"
현재: 비목별로 "어떤 산출물을 위한 것인지" 연결 없음
5) 심층인터뷰/발표 대비 관점 점검
예상 질문
현재 답변 준비 상태
보강 필요 사항
"API 래핑 아닌 근거?"
✅ 양호
sLLM vs LLM API 구분을 더 명확히
"성과 지표가 뭔가?"
⚠️ 보통
누락률/완주율 등 언급은 있으나 수치 목표 없음
"OpenAI가 내일 같은 거 만들면?"
✅ 양호
4가지 방어 논리 포함
"왜 정부지원이 필요한가?"
❌ 약함
실증 비용 구체화 필요 (라벨링 X건, GPU Y시간 등)
"마케터 인건비가 왜 R&D 예산?"
❌ 취약
현재 구조로는 방어 불가 → 예산 재설계 필요
"AI 엔지니어 아직 안 뽑았는데?"
❌ 취약
채용 타임라인/채널/백업 플랜 없음
"TIPS R&D랑 뭐가 다른가?"
⚠️ 보통
차별점 서술 보강 필요 (TIPS는 기반 기술, 초창패는 사업화+추가 R&D)
"해외 50사 어떻게?"
❌ 취약
해외 전략 상세 전무
이런 피드백은 내가 놓치기 쉬운 부분을 잡아줍니다. 특히 정부과제는 "잘 쓰는 것"보다 "트집 안 잡히게 쓰는 것"이 중요한데, 작성 가이드에 한줄이나 몇 단어 나와서 빠뜨린 KPI를 단계별로 명시하라는 것, 마일스톤과 사업비의 비목, 그리고 마일스톤과 그 마일스톤 각각의 담당자가 팀 구성에서 지정되어야 하는 것, 이런 것들은 쉽게 추가할 수 있지만 없는 경우, 트집 잡힐 수 있는 부분이었는데, AI 리뷰가 이런 세세한 부분을 챙겨줬습니다.
체감 효능감:
"나는 사소하게 생각하지만, 평가 기준에 있어서 놓치기 쉬운 것들을 잘 챙겨준다."
다만 시간이 부족해서 피드백을 다 반영하지는 못했습니다. 마감이 코앞이었거든요.
4. 구글 문서로 옮기기: 진짜 고통의 시작
사업계획서를 마크다운으로 쓴 이유는 AI가 쉽게 읽고 쓸 수 있어서입니다.
그런데 최종 제출은 구글 문서(Google Docs) 또는 워드(Word) 형식이어야 합니다.
문제 1: 불릿 리스트 스타일
마크다운의 불릿 리스트(-)가 구글 문서로 옮겨지면 기본 스타일로 바뀝니다. 폰트, 크기, 들여쓰기가 다 제각각.
해결책으로 Google Apps Script를 만들었습니다:
마크다운 불릿 레벨에 따라 폰트 크기 차등 적용 (레벨0: 13pt, 레벨1: 12pt, ...)
Nanum Gothic 폰트 통일
레벨0만 볼드, 나머지는 일반체
이 스크립트를 다듬는 데만 반나절이 걸렸습니다.
문제 2: 테이블 변환
마크다운 테이블이 구글 문서 테이블로 깔끔하게 안 바뀝니다.
| 구분 | 내용 | 비고 |
|------|------|------|
| A | B | C |
이게 복붙하면 그냥 텍스트로 들어갑니다. 결국 Apps Script에 테이블 변환 로직을 추가했습니다.
문제 3: 다이어그램 (가장 고통스러웠음)
마크다운에서 다이어그램은 Mermaid 코드로 작성합니다:
flowchart LR
A[입력] --> B[처리] --> C[출력]
이걸 구글 문서에 넣으려면:
mermaid.live에서 PNG로 내보내기
그 PNG를 구글 문서에 이미지로 삽입
또는:
draw.io에서 Extras > Mermaid로 import
draw.io에서 편집 후 PNG 내보내기
구글 문서에 삽입
둘 다 수동 작업입니다.
마크다운으로 쓸 때는 Mermaid 코드 한 줄로 끝났는데, 구글 문서로 옮기면서 다이어그램 하나당 5~10분씩 걸렸습니다. 제안서에 다이어그램이 5개 있었으니 거의 1시간.