소개
AI 스터디 첫 세션에서, 클로드코드와 Cursor를 설치하고 실습을 진행했습니다. 오리엔테이션을 직접 듣진 못했지만, 공유된 'AI 마인드셋' 강의자료에서 본 문장이 인상 깊었어요:
"이해 안돼도 따라하는 것부터 해라. 그리고 나중에 다시 이해해라."
처음엔 "이게 맞나?" 싶은 의심이 계속 들었지만, 멈추지 않고 일단 실행하면서 뭔가 실마리가 보였고, 나중에 다시 복기하며 학습의 효과가 확실히 올라갔다는 걸 느꼈습니다 💡
진행 방법
사용한 도구
🧠 Claude Code (클로드코드)
💻 Cursor IDE
📝 Notion MCP
주요 작업 흐름
카카오톡 채팅 데이터(messages.csv)에서 URL 포함 메시지 추출
각 URL에 대한 반응(좋아요, 댓글 등) 분석
상위 10% 반응 URL만 선별
다음과 같은 구조로 urls.csv 저장:
컬럼: 요약, URL, 날짜 (YYYY-MM-DD)
링크드 페이지 제목 가져오기
한글 유니코드 깨짐 방지
따옴표 처리 및 단축 URL 풀기 등 세부 조건 적용
urls.csv 파일 → Notion 페이지로 자동 생성 (Notion MCP 연동 필요)
사용 프롬프트
messages.csv 파일을 분석해서 다음 작업을 해줘:
1. CSV 파일에서 URL이 포함된 메시지 찾기
2. 각 URL에 대한 반응(좋아요, 댓글, 답글 등) 분석
3. 반응이 많은 상위 10%의 URL들만 선별
4. 다음 형태의 urls.csv 파일 생성:
- 컬럼: 요약, URL, 날짜
- URL 링크드의 미리보기 제목
- 한글 유니코드로 깨지지 않게 가져오기
- 따옴표로 묶어서 쉼표 등의 문제가 없게 하기
- 단축된 URL의 경우 최종 페이지의 링크 미리보기 제목으로 쓰기
- 제목을 가져오는데 실패 혹은 페이지가 없으면 URL을 제외하기
- 날짜는 YYYY-MM-DD 형태
파일을 생성하고 저장해줘.
urls.csv 의 내용을 표로 만들어서 노션 페이지 "유용한 URL 모음"으로 생성해줘.
노션 MCP로 네가 직접 노션 페이지를 만들어줘.
작업 종료 후 생성한 노션 URL을 제공해줘.
서브 에이전트 실습
역할을 분리해서 작업 시키는 개념
제가 이해한 방식:
똑똑한 제너럴리스트 혼자 하던 걸 → 개발자 / 디자이너 / 마케터 등 역할 나누고 PM이 조율하는 방식
실습에서는 "반응 분석 전담 에이전트", "URL 추출 전담 에이전트"를 따로 만들었고,
제 세션에서는 아쉽게도 하나의 에이전트만 동작했어요
다른 스터디원 글을 보고 다음엔 Claude를 껐다 켜는 방식으로 다시 시도해보려 합니다
결과와 배운 점
👍 좋았던 점
ChatGPT로 했으면 수 시간 걸릴 작업을 Claude Code가 훨씬 자연스럽게 처리함
에이전트 개념을 실습하며 GPT보다 Claude가 직관적인 경우도 많다는 인상 받음
😅 어려웠던 점
Claude 에이전트가 1개만 작동했던 점은 아쉬움
결과 파일이 로컬에 저장되는 구조는 저에게는 불편함으로 다가왔어요
🔧 해결 및 다음 시도
Claude를 껐다가 다시 켜는 방식으로 재시도 예정
GSuite 연동을 시도해서 저장 문제 해결해볼 계획
💭 기대 포인트
이 워크플로우를 확장해서, 틱톡 채널 매니저처럼 운영해볼 수 있지 않을까 상상 중입니다!
영상 기획 + 스크립트 생성 + 계정별 반응 분석 + 후속 콘텐츠 액션까지
도움 받은 글
📚 AI 마인드셋 강의자료: "이해 안돼도 일단 해보자"
✍️ 스터디장님의 프롬프트 실습 자료
💬 다른 스터디원의 미니사례 (에이전트 재시작 팁 등)