소개
매일 쏟아지는 관심 정보를 모두 챙겨보기는 어렵습니다. 특히 정보의 특성(예: 해외 뉴스라 언어 장벽이 있거나, 양이 너무 방대해서) 중요한 내용을 놓치기 쉽습니다. 그래서 n8n과 AI를 활용해, 매일 아침 원하는 정보만 골라 요약하고 번역하여 이메일로 받아보는 워크플로우를 만들었습니다. 만들면서 유튜브나 스터디원 분들의 사례를 참고해서 따라서 해보았습니다.
사례 1. 매일 글로벌 뉴스 메일로 받아보기(유튜브 따라하기)
📌 워크플로우 구성
이번 자동화에는 다음과 같은 도구와 노드를 활용했습니다.
n8n: 전체 워크플로우를 설계하고 실행하는 핵심 자동화 툴
Schedule Trigger: 원하는 시간에 워크플로우를 자동으로 시작
Get News (HTTP Request): 정보 소스(예: News API)를 통해 최신 데이터를 가져오는 역할
Google Gemini (AI Agent): 가져온 데이터를 지시사항에 따라 요약, 분류, 가공
Google Sheets: 이메일 수신자 목록 관리
Gmail: 최종적으로 정리된 내용을 이메일로 발송
📈 진행했던 워크플로우 구성도
🛠️ 진행 방법 (단계별 가이드)
자동 실행 예약 (Schedule Trigger):
Schedule Trigger
노드를 사용해 워크플로우가 원하는 실행 주기(예: 매일 오전 8시)에 자동으로 실행되도록 설정했습니다.
데이터 가져오기 (HTTP Request):
HTTP Request
노드를 이용해 데이터 소스 URL(예: https://newsapi.org/v2/top-headlines. 무료로 세계 뉴스를 가져올 수 있는 API 서비스)를 호출하도록 했습니다.필요한 파라미터(예: API 키, 국가 코드
country=us
등)를 설정하여 원하는 데이터를 가져왔습니다. (API키 만든 곳 : https://newsapi.org/)한국 뉴스도 가져오려고 country=kr로 시도해보았지만 과거 뉴스를 가져와서 포기했습니다.
AI로 데이터 가공 (AI Agent & Google Gemini):
AI Agent
노드에Google Gemini Chat Model
을 연결했습니다.AI가 수행할 작업을 아래와 같이 구체적인 프롬프트로 지시했습니다.
이 작업을 하면서 몇번의 실패를 했습니다. 결과물이 제대로 나오지 않더라구요. 그래서 Gemini에게 내가 원하는 출력물이 어떤 형태인지 구체적으로 설명하고, 어떻게 수정하면 좋을지 도움을 받았습니다.
AI가 수행할 작업을 아래와 같이 구체적인 프롬프트를 만들도록 지시했습니다. 이 부분이 결과물의 품질을 결정하는 가장 중요한 단계였습니다.
핵심 프롬프트 (AI 지시문)
너는 신문 기자야. 아래 데이터 종류(예: 뉴스 기사 제목과 요약)을 기반으로, 각 데이터들을 적절한 주제별로 분류해줘. 데이터는 총 5개 항목으로 정리하고, 각 항목마다 제목과 간단한 요약을 HTML 형식으로 작성해줘. 독자가 보기 좋도록 줄바꿈과 강조를 적절히 사용하고, 문단별로 명확히 나눠줘. 이메일로 전송될 내용이니 예의 바른 첫 인사와 마지막 인사도 함께 포함해줘. 영어 제목이나 요약이 있다면 자연스럽게 한국어로 번역해줘.
아래는 [데이터 종류] 목록이야.
{{ $json.articles[0].title }}
{{ $json.articles[0].description }}
... (데이터 삽입) ...
출력 형식은 다음과 같아야 해:
<p>안녕하세요.</p>
<p>오늘의 주요 [정보]를 아래와 같이 <strong>5개 항목</strong>으로 정리해 드립니다.</p>
<h3>1. [카테고리 제목]</h3>
<p><strong>제목:</strong> [뉴스 제목]<br>
<strong>핵심 요약:</strong> [뉴스 요약]</p>
<h3>2. [카테고리 제목]</h3>
<p><strong>제목:</strong> ...<br>
<strong>핵심 요약:</strong> ...</p>
... (나머지 항목 반복) ...
<p>📬 다음 뉴스도 기대해 주세요.<br>감사합니다.</p>
부가 정보 연동 (Google Sheets):
Google Sheets
노드로 미리 작성해 둔 시트의 내용(수신자 이름과 이메일 주소)를 불러오게했습니다.
결과물 발송 (Gmail):
Gmail
노드에 서 수신자, 제목, 본문 등을 설정했습니다.수신자: 구글 시트에서 가져온 이메일 주소
{{ $('이메일 수신자').item.json.Email }}
제목: 개인화된 제목
{{ $('이메일 수신자').item.json.Name }}님을 위한 오늘의 글로벌 뉴스
본문: AI Agent가 생성한 최종 결과물
{{ $('AI Agent').item.json.output }}
✅ 도착한 결과물
사례 2. 매일 아침 매일경제신문 뉴스 메일로 받아보기(흥곰이님 사례 따라하기)
※ 여러 신문이 아닌 1개 신문만 메일로 받은 이유
## 1. 404 Not Found 에러: 존재하지 않는 RSS 주소
에러 내용:
RSS Read
노드에서 "404 Not Found" 또는 "The resource you are requesting could not be found" 에러가 발생하며, 뉴스 데이터를 전혀 가져오지 못하는 문제 발생.핵심 원인: 언론사가 더 이상 사용하지 않는 낡은 RSS 주소를 사용했기 때문임. 우리는 연합뉴스의
yna.co.kr/rss/all.xml
이나yna.co.kr/yonhap/rs/headlines.xml
같은 주소들을 시도했지만, 모두 서비스가 종료된 주소였음.해결 방법: 여러 번의 실패 끝에, 매일경제신문(
mk.co.kr
)처럼 현재 정상적으로 운영 중인 언론사의 공식 RSS 주소를 찾아 교체하여 문제 해결함.
📌 워크플로우 구성
이번 자동화에서는 다음과 같은 도구와 노드를 활용하여 매일 아침 매일경제신문 뉴스를 요약하고 이메일로 발송하는 시스템을 만들었습니다.
n8n: 전체 워크플로우를 설계하고 실행하는 자동화 툴
Schedule Trigger: 매일 오전 8시에 자동 실행
RSS Feed Read: 매일경제신문 RSS에서 최신 경제 뉴스 수집
Code : 뉴스 내용 중 상위 6개를 선택해 텍스트 정리
Google Gemini Chat Model: AI를 통해 뉴스 요약 생성
Google Sheets: 이메일 수신자 목록 관리
Gmail: 요약된 뉴스를 이메일로 발송
📈 진행했던 워크플로우 구성도
🛠️ 진행 방법 (단계별 가이드)
1. 자동 실행 예약 (Schedule Trigger)
Schedule Trigger 노드로 워크플로우가 매일 오전 8시에 자동으로 실행되도록 설정했습니다.
2. 뉴스 데이터 수집 (RSS Feed Read)
매일경제신문 RSS 주소(https://www.mk.co.kr/rss/30000001/)를 활용하여 최신 경제 뉴스를 자동 수집하도록 했습니다.
3. 뉴스 정리 및 가공 (Code 노드)
기사가 너무 많으니 수집된 뉴스 중 상위 6개만 선택하여 활용하도록 했습니다.
기사 제목과 요약을 AI가 읽기 좋은 형태로 정리하게 했습니다.(불필요한 부분 제거)
각 뉴스를 1. 제목, 요약 2. 하단에 링크 제공을 하도록 다음과 같이 제시했습니다. 이 프롬프트를 작성하면서 Gemini의 도움을 받았습니다.
4. AI 요약 생성 (Google Gemini Chat Model)
Google Gemini 모델에 프롬프트를 전달하여 3~5개의 핵심 뉴스 요약을 생성하게 했습니다.
프롬프트 예시
5. 이메일 수신자 관리 (Google Sheets)
구글 스프레드시트에 저장된 이름과 이메일 정보를 가져와 각 사용자에게 맞춤형 뉴스 이메일을 보내게 했습니다.
6. 이메일 발송 (Gmail)
수신자 이름을 포함한 개인화된 제목과 본문을 생성하여 Gmail로 발송합니다.
프롬프트 예시
✅ 도착한 결과물
🎯 결과 및 배운 점
(예상 질문) 왜 글로벌 뉴스와 매일경제신문 워크플로우의 노드 구성이 다른가요?
두 워크플로우의 핵심 목표는 '뉴스 요약'으로 같지만, 뉴스를 가져오는 원천 데이터의 형태가 다르기 때문에 그에 맞는 최적의 노드를 사용했습니다.
글로벌 뉴스 워크플로우:
사용한 노드:
HTTP Request
노드이유: 이 워크플로우는 News API라는 서비스를 사용합니다. API는 개발자들이 사용하기 쉽도록 데이터가 JSON이라는 정형화된 형식으로 매우 깔끔하게 정리되어 있습니다. 따라서
HTTP Request
노드로 API를 호출하기만 하면, 별도의 가공 없이 바로 AI가 이해할 수 있는 데이터를 얻을 수 있습니다.
매일경제신문 워크플로우:
사용한 노드:
RSS Read
+Code
노드이유: 매일경제신문은 API가 아닌 RSS 피드로 정보를 제공합니다. RSS 데이터는 XML 기반이라 내용에 불필요한 HTML 태그가 섞여 있는 등 API만큼 데이터가 깨끗하지 않습니다.
따라서
RSS Read
로 데이터를 우선 가져온 뒤, AI에게 넘겨주기 전에Code
노드를 중간에 추가하여 불필요한 부분을 제거하고 AI가 더 잘 요약할 수 있도록 데이터를 정리하는 과정이 필요했습니다.
결론적으로, 데이터 소스의 특성(정형화된 API vs. 비정형의 RSS)에 맞춰 가장 효율적인 방식으로 데이터를 처리하기 위해 서로 다른 노드 조합을 사용하게 된 것입니다.
결과: 매일 아침, 내가 받은 결과물(글로벌 뉴스, 매일경제신문 요약본)을 이메일로 받아보며 정보 습득의 효율이 향상되었고, 수신자별 맞춤 메일 전송으로 개인화된 정보 제공이 가능해졌습니다.
프롬프트 품질이 결과의 품질을 좌우 : Google Gemini가 정확하고 간결한 요약을 생성하기 위해서는 명확하고 구체적인 프롬프트가 필요했습니다. 마크다운 형식 지시도 매우 효과적이었습니다.
RSS 피드 선택이 중요 : 일부 뉴스 사이트는 비표준 RSS 구조를 사용하여 오류가 발생했습니다. 매일경제신문처럼 구조가 안정된 RSS를 사용하는 것이 중요합니다.
확장 가능성: 이 워크플로우를 응용하여 다른 아이디어(예: 자동으로 회의록 작성하여 참석자에게 발송, 여러 신문기사 종합 요약하여 메일 보내기 등)의 다양한 자동화에 도전해 볼 생각입니다.
여러 사례의 "따라하기"를 반복적으로 실행해서 자동화 실력을 높일 생각입니다.
참고한 자료와 감사 인사
유튜브(글로벌 뉴스 요약)와 흥곰이님이 작성한 사례(매일, 경제 기사 요약을 메일로 받는 자동화 루틴 만들기)를 참고했습니다.
매번 스터디에 참석하면서 스터디장님(멍멍님, 올마이티님)과 스터디원 여러분들의 열정이 자극이 되어 저도 분발하고 있습니다. 감사합니다.
첫 사례 따라한 영상 : https://www.youtube.com/watch?v=p8VN_DRq_Ko&t=948s