claude-code, gpt-codex 공식 문서를 직접 들어가서 확인하시나요?

AI 에이전트 활용의 중요성

claude-code, gpt-codex를 가장 잘 사용할 수 있는 건 커뮤니티들에 소개된 하네스를 가져다 쓰는 것이 아닌 공식 문서를 기반으로 자신만의 Agent, Harness를 발전시키는 것이라 굳게 믿습니다.

하지만 이를 위해 직접 문서를 찾고, github에 changelog와 release를 추적해 읽고 분석하는 것은 AI-Native 생태계에서 정답이 아니라고 생각합니다.

에이전트를 쓰는 사람이라면 그 에이전트가 수행할 일이지, 사람은 결정하고 실행을 위임해야 합니다.

그런데, robots.txt같은게 없으니 에이전트들은 일일히 그 문서들을 Web Fetch같은 Tool을 사용하여 파싱합니다. 이 때 토큰 사용량을 보셨나요? 공식 문서 하나를 파싱하는데에만 수백만 토큰입니다.

이걸 해소하겠습니다.


효율적인 AI 에이전트 개발 방법

robots.txt, sitemap.xml처럼 에이전트를 위한 사이트맵과 데모를 만들었습니다.
이 에이전트 프롬프트를 통해 데모 사이트를 분석해보라 하세요.
그리고 이를 활용한 토큰 절약을 직접 눈으로 확인해보세요.


실험 데이터

Format

MIME Type

Tokens

Machine Parseability

Human Readability

TXT

text/plain

~3,200

Good

Good

MD

text/markdown

~5,400

Good

Best

JSON

application/json

~9,600

Best

Moderate

XML

application/xml

~7,000

Best

Moderate

파싱 데이터 결과

CSS 코드 편집기의 스크린샷


프로젝트 결과와 향후 계획

robots.txt, sitemap.xml처럼 Agent를 위한 표준이 마련되어야 한다고 생각합니다.
에이전트에게는 UI/UX는 의미 없습니다. headless API처럼 '데이터만 정확하게' 파싱하면 됩니다.

이 프로젝트를 Anthropic, OpenAI, Vercel Labs에 소개하고자 하는 계획도 갖고 있습니다.
이를 위해 많은 분들의 참여와 아이디어를 공유해주신다면 감사하겠습니다.

도움 받은 자료와 참고 문헌

Claude Code Skills 2.0
AI에게 Playwright MCP 를 주면 안되는 이유
vercel-labs/agent-browser

뉴스레터 무료 구독

👉 이 게시글도 읽어보세요