AI 실습 첫걸음: 채팅 데이터에서 유용한 URL 뽑아내기

소개

AI 스터디 첫 세션에서, 클로드코드와 Cursor를 설치하고 실습을 진행했습니다. 오리엔테이션을 직접 듣진 못했지만, 공유된 'AI 마인드셋' 강의자료에서 본 문장이 인상 깊었어요:

"이해 안돼도 따라하는 것부터 해라. 그리고 나중에 다시 이해해라."

처음엔 "이게 맞나?" 싶은 의심이 계속 들었지만, 멈추지 않고 일단 실행하면서 뭔가 실마리가 보였고, 나중에 다시 복기하며 학습의 효과가 확실히 올라갔다는 걸 느꼈습니다 💡

진행 방법

사용한 도구

  • 🧠 Claude Code (클로드코드)

  • 💻 Cursor IDE

  • 📝 Notion MCP

주요 작업 흐름

  1. 카카오톡 채팅 데이터(messages.csv)에서 URL 포함 메시지 추출

  2. 각 URL에 대한 반응(좋아요, 댓글 등) 분석

  3. 상위 10% 반응 URL만 선별

  4. 다음과 같은 구조로 urls.csv 저장:

    • 컬럼: 요약, URL, 날짜 (YYYY-MM-DD)

    • 링크드 페이지 제목 가져오기

    • 한글 유니코드 깨짐 방지

    • 따옴표 처리 및 단축 URL 풀기 등 세부 조건 적용

  5. urls.csv 파일 → Notion 페이지로 자동 생성 (Notion MCP 연동 필요)

사용 프롬프트

messages.csv 파일을 분석해서 다음 작업을 해줘:

1. CSV 파일에서 URL이 포함된 메시지 찾기
2. 각 URL에 대한 반응(좋아요, 댓글, 답글 등) 분석
3. 반응이 많은 상위 10%의 URL들만 선별
4. 다음 형태의 urls.csv 파일 생성:
 - 컬럼: 요약, URL, 날짜
 - URL 링크드의 미리보기 제목
 - 한글 유니코드로 깨지지 않게 가져오기
 - 따옴표로 묶어서 쉼표 등의 문제가 없게 하기
 - 단축된 URL의 경우 최종 페이지의 링크 미리보기 제목으로 쓰기
 - 제목을 가져오는데 실패 혹은 페이지가 없으면 URL을 제외하기
 - 날짜는 YYYY-MM-DD 형태

파일을 생성하고 저장해줘.
urls.csv 의 내용을 표로 만들어서 노션 페이지 "유용한 URL 모음"으로 생성해줘.
노션 MCP로 네가 직접 노션 페이지를 만들어줘.
작업 종료 후 생성한 노션 URL을 제공해줘.

서브 에이전트 실습

  • 역할을 분리해서 작업 시키는 개념

  • 제가 이해한 방식:

    • 똑똑한 제너럴리스트 혼자 하던 걸 → 개발자 / 디자이너 / 마케터 등 역할 나누고 PM이 조율하는 방식

  • 실습에서는 "반응 분석 전담 에이전트", "URL 추출 전담 에이전트"를 따로 만들었고,

    • 제 세션에서는 아쉽게도 하나의 에이전트만 동작했어요

    • 다른 스터디원 글을 보고 다음엔 Claude를 껐다 켜는 방식으로 다시 시도해보려 합니다

결과와 배운 점

👍 좋았던 점

  • ChatGPT로 했으면 수 시간 걸릴 작업을 Claude Code가 훨씬 자연스럽게 처리

  • 에이전트 개념을 실습하며 GPT보다 Claude가 직관적인 경우도 많다는 인상 받음

😅 어려웠던 점

  • Claude 에이전트가 1개만 작동했던 점은 아쉬움

  • 결과 파일이 로컬에 저장되는 구조는 저에게는 불편함으로 다가왔어요

🔧 해결 및 다음 시도

  • Claude를 껐다가 다시 켜는 방식으로 재시도 예정

  • GSuite 연동을 시도해서 저장 문제 해결해볼 계획

💭 기대 포인트

  • 이 워크플로우를 확장해서, 틱톡 채널 매니저처럼 운영해볼 수 있지 않을까 상상 중입니다!

    • 영상 기획 + 스크립트 생성 + 계정별 반응 분석 + 후속 콘텐츠 액션까지

도움 받은 글

  • 📚 AI 마인드셋 강의자료: "이해 안돼도 일단 해보자"

  • ✍️ 스터디장님의 프롬프트 실습 자료

  • 💬 다른 스터디원의 미니사례 (에이전트 재시작 팁 등)

2

👉 이 게시글도 읽어보세요