슬래시 명령어 2개로 AI 트렌드 리서치 자동화하기

한줄 요약

Claude Code의 슬래시 명령어로 AI 트렌드 검색부터 마크다운 정리까지 자동화했습니다.


이런 분들께 도움돼요

  • AI/기술 트렌드를 꾸준히 팔로우하고 싶은 콘텐츠 크리에이터

  • 리서치 자료 수집에 시간을 너무 많이 쓰고 있는 분

  • Python 설치 없이 Claude Code로 자동화를 시작하고 싶은 분

  • 수집한 자료를 체계적으로 관리하고 싶은 분


소개: 시도하고자 했던 것과 그 이유

문제 상황

콘텐츠 크리에이터로서 AI 트렌드를 꾸준히 팔로우하고 싶었는데, 여러 사이트를 돌아다니며 자료를 모으는 게 너무 번거로웠어요.

기존 방식:

  1. MIT Tech Review, Anthropic 블로그, OpenAI 등 여러 사이트 방문

  2. 관심 있는 기사 발견하면 복사

  3. 노션이나 옵시디언에 붙여넣기

  4. 형식 맞춰서 정리...

이 과정을 주 2-3회, 회당 30분~1시간씩 반복하고 있었습니다.

목표

"URL만 주면 자동으로 내용 추출하고 마크다운으로 저장"

더 나아가서, 검색 키워드만 입력하면 관련 URL까지 찾아주면 좋겠다고 생각했어요.


진행 방법: 어떤 도구를 사용했고, 어떻게 활용했나요?

사용한 도구

  • Claude Code (VS Code Extension)

  • Claude 내장 도구: WebSearch, WebFetch, Write

자동화 과정

Step 1: /clarify로 요구사항 명확화

/clarify "리서치 자료 정리"

Claude가 질문을 통해 제 상황을 파악하고, 자동화 범위를 정의해줬어요:

  • 빈도: 주 2-3회

  • 소요시간: 회당 30분~1시간

  • 핵심 불편: 수집 단계

  • MVP: 웹페이지 URL → 제목/내용/요약 자동 추출

Step 2: Plan Mode로 구현 설계

Python 스크립트 vs Claude 내장 도구 중 선택했는데, Python 설치 없이 바로 사용 가능한 Claude 내장 도구 방식을 선택했어요.

Step 3: 슬래시 명령어 2개 생성

1. /find-ai-trends "키워드"

  • WebSearch로 AI 트렌드 검색

  • 관련 URL 목록을 채팅창에 출력

  • docs/_research/trends/에 자동 저장

2. /collect-research "URL"

  • WebFetch로 페이지 내용 추출

  • AI가 요약 + 핵심 포인트 정리

  • docs/_research/에 마크다운 저장

인상적이었던 순간

WebSearch로 URL 찾고 → WebFetch로 내용 추출 → Write로 저장하는 파이프라인이 자연스럽게 만들어졌어요.

처음에 명령어가 인식이 안 되는 문제가 있었는데, 기존 명령어 파일의 frontmatter 형식을 참고해서 해결했습니다.


결과와 배운 점

결과물

생성된 명령어:

  • /find-ai-trends - AI 트렌드 URL 검색 및 저장

  • /collect-research - 웹페이지 내용 추출 및 저장

수집된 자료 (첫날):

docs/_research/
├── 00_AI_트렌드_소스_목록.md
├── 20260114_Introducing_Claude_4.md
├── 20260114_7_Agentic_AI_Trends_2026.md
├── 20260114_IBM_AI_Tech_Trends_2026.md
├── 20260114_Simon_Willison_Year_in_LLMs_2025.md
├── 20260114_Agentic_LLMs_2025.md
└── trends/
    └── 20260114_LLM_에이전트_트렌드.md

배운 점

  1. 슬래시 명령어의 힘: 2개의 명령어만으로 리서치 시간을 확 줄일 수 있게 됨

  2. Python 없이도 가능: Claude 내장 도구(WebFetch, WebSearch)만으로 충분히 자동화 가능

  3. 체계적 정리의 가치: 자동으로 마크다운 형식에 맞춰 저장되니 나중에 찾기도 쉬움


재사용 가능한 프롬프트

리서치 자동화 시작 프롬프트

/clarify "수집하고 싶은 자료 종류"

예시:

  • /clarify "경쟁사 블로그 글 모니터링"

  • /clarify "업계 뉴스 정리"

트렌드 검색 프롬프트

/find-ai-trends "검색 키워드"

예시:

  • /find-ai-trends "LLM 에이전트"

  • /find-ai-trends "멀티모달 AI"

개별 URL 수집 프롬프트

/collect-research "웹페이지 URL"

향후 계획

  1. 노션 API 연동: 수집한 자료가 자동으로 노션 DB에 저장되도록

  2. 유튜브 자막 수집: 영상 콘텐츠까지 리서치 범위 확장

  3. 정기 스케줄링: AI 트렌드를 자동으로 수집하는 기능 추가

1
1개의 답글

뉴스레터 무료 구독

👉 이 게시글도 읽어보세요