1. 들어가며
유튜브 운영자라면 매일 아침 경쟁 채널에 어떤 영상이 올라왔는지 확인하고, 조회수·좋아요·댓글 수 같은 주요 지표를 일일이 살펴보는 데만 1시간 이상 걸린 경험이 있을 겁니다.
시청자라면 구독중인 수십개 영상들의 홍수속에 스크롤링만 하다 시간 보낸 적 있으실 테구요.
저도 매일 아침 수많은 채널들 들어가보고, 영상 일일히 체크하고, 무슨 내용인지 확인하느라
귀중한 시간을 허비했죠.
그래서 이 글에서는 “매일 아침 자동으로 경쟁 채널 신규 영상을 검색·분석해, 주요 내용과 통계 정보를 Notion에 정리하고 Slack으로 알림까지 보내주는 자동화” 구축 과정을 공유합니다.
왜 필요한가?
🕒 매일 1시간 이상 소요되던 반복 작업을 5분 내로 단축
🔍 영상별 핵심 포인트를 놓치지 않고 빠르게 벤치마킹
🤝 팀원과 정보 공유 자동화로 협업 효율성 향상
이번 글의 초점
전체 구조 및 사용 모듈 소개
주요 구현 단계별 세부 흐름
Make 시나리오 설계 & ChatGPT 협업 포인트
핵심 기능 요약
시행착오 및 개선 계획
기대 효과 및 향후 발전 계획
2. 자동화 구현 과정
2-1. 전체 아키텍처 개요
Notion DB에서 ‘활성화된 경쟁 채널 목록’ 조회
YouTube Data API로 지난 24시간 내 신규 업로드 영상 검색
신규 영상 ID로 YouTube API에서 통계(조회수·좋아요·댓글) 수집
Apify를 활용해 영상 자막(텍스트) 스크래핑
OpenAI GPT 모델로 핵심 내용 요약 및 인사이트 도출
Notion에 분석 결과 자동 페이지 생성
Slack으로 당일 분석 결과 알림 전송 🚀
2-2. Make 시나리오 설계 & ChatGPT 협업 포인트 🌱
전체 흐름 설명: 처음에는 제가 원하는 전체 업로드→분석→저장→알림 과정을 자연어로 ChatGPT에 설명했습니다.
기본 구조 받기: “이런 흐름으로 Make 시나리오를 설계해줘”라고 요청해, ChatGPT가 모듈 배치와 데이터 흐름의 뼈대를 제시해줬습니다.
필드 매핑 보완: 제 Notion 필드 이름과 API 응답 필드를 어떻게 매핑할지 ChatGPT에게 자문을 구하며, 출력값·데이터 타입을 검증하고 수정했습니다.
반복 수정: 작은 샘플 데이터를 이용해 테스트하고, 매핑 오류를 발견할 때마다 ChatGPT에 다시 묻고 시나리오를 개선했습니다.
Tip: 처음부터 복잡하게 구현하지 말고, ChatGPT에 전체 흐름만 빠르게 그려달라고 하면 초보자도 쉽게 시작할 수 있습니다!
2-3. 모듈별 세부 흐름
Notion: Search Objects
‘활성화 상태’ 체크박스가 켜진 채널을 최대 30개까지 가져옴
HTTP: YouTube Search
publishedAfter
= 어제 자정 이후로 설정해 신규 영상만 필터
HTTP: YouTube Videos
영상 ID 리스트를 이용해 조회수·좋아요·댓글 등 통계 획득
Apify: Run Actor → Fetch Dataset
YouTube Scraper Actor로 자막(plaintext) 가져오기
OpenAI GPT-4o-mini
“당신은 유튜브 영상 분석 전문가입니다…” 시스템 프롬프트로 요약·인사이트 JSON 생성
Notion: Create a Page
제목·채널명·통계·분석일·인사이트·주요 내용 필드에 매핑해 DB 페이지 자동 추가
Slack: Create Message
오늘 신규 영상 수 및 요약 결과를 마크다운 형식으로 전송
3. 핵심 기능 요약
채널 관리: Notion DB에서 활성화된 경쟁 채널 목록 자동 조회
신규 영상 검색: YouTube API로 지난 24시간 신규 업로드 영상만 필터링
통계 수집: 조회수·좋아요·댓글 수 자동 집계
텍스트 분석: Apify 자막 + OpenAI GPT로 핵심 내용·추천 키워드·벤치마킹 포인트 도출
결과 저장: Notion 페이지 자동 생성으로 기록·공유 용이
알림 전송: Slack 메시지로 팀원에게 당일 분석 결과 실시간 전파
4. 시행착오 및 개선 계획 ⚙️
4-1. 시행착오 😅
GPT 모델 선택
원래 Gemini 무료 모델을 쓰고 싶었으나, 출력 형식이 정돈되지 않아 가독성이 떨어짐
결국 ChatGPT API로 돌아옴
API 호출 한도 이슈
YouTube Data API 호출량이 예상보다 빨리 소진되어, 하루치 영상 모두 처리하지 못하는 상황 발생 (테스트 과정에서 발생하는 이슈고, 실 운영 환경에서는 다 쓸일 없음)
4-2. 아쉬운 부분 & 개선 계획 ✨
비용 절감 대안:
Gemini 출력 후 후처리 스크립트로 정제하거나, 오픈소스 LLM 이용 검토
확장 자동화 아이템:
Make 기반 댓글 자동 모니터링/답장 워크플로우 개발
비슷한 방식으로 커뮤니티 관리, 폼 응답 메일링 등 유튜브 운영 전반에 적용
5. 기대 효과 및 향후 발전 계획 🌱
시간 절약: 매일 1시간→5분으로, 주요 업무에 집중 가능
일관된 분석: 사람마다 달라질 수 있는 벤치마킹 포인트를 AI가 일정하게 제공
확장성: 채널 수를 늘려도 추가 비용·수작업 없이 즉시 적용
향후 계획
📊 예상 시청시간·수익 추정 기능 추가
📈 멀티 채널 트렌드 대시보드 개발
💬 Make 기반 댓글 자동 모니터링 및 답장 자동화
🚀 Slack·Email 등 알림 채널 다양화
이번 사례를 통해 매일 반복되던 유튜브 경쟁 채널 분석 작업을 완전 자동화하는 방법을 공유했습니다.