소개
Make 실습으로 ‘AI Times’의 인기 뉴스 Top10을 자동으로 가져와 요약하는 자동화 흐름을 만들었어요. 온라인 뉴스 정보를 자동 수집하는 시나리오를 따라해봤습니다
진행 방법
전체 흐름 구성
아래처럼 총 6단계로 구성했어요. 각 단계에 사용된 모듈은 다음과 같아요 👇
1️⃣ AI Times 홈 HTML 가져오기 (HTTP)
URL:
https://www.aitimes.com/Method: GET
응답 파싱: Yes ✅
🔍 Selector 찾기 팁 (개발자 도구 사용법)
웹 데이터를 자동으로 수집하려면, 반복되는 기사 목록을 감싸고 있는 **루트 요소(Root Element)**의 CSS Selector를 정확히 찾아야 해요. 이 Selector를 기반으로 Make의 Iterator가 각 항목을 반복할 수 있게 되죠.
Chrome에서 F12 또는 우클릭 → 검사(Inspect)
좌측 상단 화살표(요소 선택 도구) 클릭 → 원하는 요소 위에 마우스를 올리면 파란 박스로 영역이 표시돼요.
반복되는 기사 박스 전체(제목이나 이미지만 말고 전체 카드) 선택
우클릭 → Copy → Copy selector (또는 Copy JS Path)
예시:
#skin-9
Make ChatGPT 모듈에 입력
{
"html": "{{1.data}}",
"selector": "#skin-9"
}이렇게 하면, ChatGPT가 반복 리스트를 안정적으로 파싱(=정보추출)하고, 이후 Iterator에서 각 기사 항목으로 분리할 수 있어요.
✨ 요약:
AI Times 기사 목록의 루트 요소로
#skin-9를 개발자 도구로 직접 확인한 뒤, 이를 ChatGPT 모듈에 전달하여 반복 기사 리스트를 안정적으로 파싱(=정보추출) 했어요.
2️⃣ Title & Link 쌍으로 뽑아내기 (OpenAI)
모델:
gpt-4.1-mini역할: Developer/System
목적: HTML + selector 기반으로 제목/링크 JSON 추출
3️⃣ Iterator로 기사 반복 처리
배열:
pairs[]→ 각 기사별로 반복 진행
4️⃣ 본문 내용 가져오기 (HTTP)
기사 개별 링크 호출 → HTML 응답 받기
5️⃣ 내용 요약 및 정리 (OpenAI)
역할: User
프롬프트: 기사 본문 요약해서 포맷으로 반환하도록 지시
6️⃣ Google Drive에 자동 저장
폴더 경로 지정 (
53.01-aitimes)파일명: 날짜_제목 형식으로 자동 저장
결과와 배운 점
실제 저장된 결과
아래처럼 총 9개의 뉴스가 Google Drive에 자동 저장되었어요. 😃
예외 상황 발생 ⚠️
원래는 10개 기사 전체를 처리하려고 했는데… 마지막 10번째에서 에러 발생!
에러 메시지: RateLimitError → OpenAI API의 TPM(Tokens Per Minute) 초과로 발생한 문제였어요.