AI 에이전트 활용의 중요성
claude-code, gpt-codex를 가장 잘 사용할 수 있는 건 커뮤니티들에 소개된 하네스를 가져다 쓰는 것이 아닌 공식 문서를 기반으로 자신만의 Agent, Harness를 발전시키는 것이라 굳게 믿습니다.
하지만 이를 위해 직접 문서를 찾고, github에 changelog와 release를 추적해 읽고 분석하는 것은 AI-Native 생태계에서 정답이 아니라고 생각합니다.
에이전트를 쓰는 사람이라면 그 에이전트가 수행할 일이지, 사람은 결정하고 실행을 위임해야 합니다.
그런데, robots.txt같은게 없으니 에이전트들은 일일히 그 문서들을 Web Fetch같은 Tool을 사용하여 파싱합니다. 이 때 토큰 사용량을 보셨나요? 공식 문서 하나를 파싱하는데에만 수백만 토큰입니다.
이걸 해소하겠습니다.
효율적인 AI 에이전트 개발 방법
robots.txt, sitemap.xml처럼 에이전트를 위한 사이트맵과 데모를 만들었습니다.
이 에이전트 프롬프트를 통해 데모 사이트를 분석해보라 하세요.
그리고 이를 활용한 토큰 절약을 직접 눈으로 확인해보세요.
실험 데이터↓
Format
MIME Type
Tokens
Machine Parseability
Human Readability
TXT
text/plain
~3,200
Good
Good
MD
text/markdown
~5,400
Good
Best
JSON
application/json
~9,600
Best
Moderate
XML
application/xml
~7,000
Best
Moderate
파싱 데이터 결과↓
프로젝트 결과와 향후 계획
robots.txt, sitemap.xml처럼 Agent를 위한 표준이 마련되어야 한다고 생각합니다.
에이전트에게는 UI/UX는 의미 없습니다. headless API처럼 '데이터만 정확하게' 파싱하면 됩니다.
이 프로젝트를 Anthropic, OpenAI, Vercel Labs에 소개하고자 하는 계획도 갖고 있습니다.
이를 위해 많은 분들의 참여와 아이디어를 공 유해주신다면 감사하겠습니다.
도움 받은 자료와 참고 문헌
Claude Code Skills 2.0
AI에게 Playwright MCP 를 주면 안되는 이유
vercel-labs/agent-browser