GitHub Actions + Doppler로 보안까지 챙긴 AI 트렌드 자동화 구축기

📝 한줄 요약

매일 아침 30분씩 수동으로 하던 AI 뉴스·논문 수집을 Claude와 GitHub Actions로 자동화했고, API 키를 안전하게 관리하면서 완전히 손 떼고도 매일 정리된 리포트를 받을 수 있게 됐습니다.

지난주의 클로드코드 자동화 스터디 프로젝트 사례에서 새롭게 프로젝트를 시작했습니다.
안티그래비티 + 클로드 코드로 작업을 진행하였습니다.

🎯 이런 분들께 도움돼요

  • 마케터: AI 트렌드를 빠르게 파악해야 하는데 시간이 부족한 분

  • PM/기획자: 최신 AI 기술/서비스를 주시하면서 보안도 신경 써야 하는 분

  • 트렌드 분석가: 매일 여러 출처를 확인하고 정리하는 업무를 자동화하고 싶은 분

😫 문제 상황 (Before)

매일 아침 30분의 루틴

  1. AI News 웹사이트 들어가기

  2. ScienceDaily의 AI 섹션 확인하기

  3. arXiv에서 최신 논문 보기

  4. 다른 테크 뉴스 사이트들도 훑어보기

  5. 중요한 것들을 따로 정리하기

    남자와 여자의 이미지가 포함된 웹페이지의 스크린샷
    수집하고 싶은 데이터 소스 : AI 뉴스 유튜브(조코딩)
전원 제어 설계를 보여주는 웹사이트의 스크린샷
수집하고 싶은 데이터 소스 : ArXiv



이전 프로젝트와 비슷한 상황이지만, 웹 검색 + 스크래핑이 아닌 rss 방식으로 빠르게 다양한 데이터를 확보해보려했습니다.

그리고 더 추가가 필요했던 부분은 다음과 같았습니다.

  1. .env 로 환경변수를 매 프로젝트마다 설정해주어야 하는 귀찮음

  2. 자동으로 주기적으로 스크립트 실행이 필요한 상황


🛠️ 사용한 도구

  • Claude Code: AI와 협업하며 자동화 시스템 구축

  • Python: 데이터 수집 및 처리 로직 구현

  • GitHub Actions: 매일 정해진 시간에 자동으로 실행

  • Doppler: API 키와 환경변수를 안전하게 관리



워크플로우 (젠스파크로 만든 슬라이드 이미지)

🔧 작업 과정

1단계: "API 키를 어떻게 안전하게 관리할까?" - Doppler 통합

자동화 시스템을 만들 때 가장 먼저 고민한 것이 보안이었습니다.

컴퓨터의 코드 편집기 스크린샷
매번 복사 붙여 넣기해야했던 .env 환경 설정

왜냐하면 GitHub에 코드를 올릴 때, 실수로 API 키(OpenAI 키 같은)가 노출되면 누군가 필자의 계정으로 막대한 API 사용료를 발생시킬 수 있기 때문입니다.

Claude에게 물었습니다: "GitHub Actions에서 매일 자동으로 실행되는데, API 키는 어떻게 안전하게 관리할까?"

Claude는 Doppler(https://www.doppler.com/)라는 서비스를 추천했습니다. 이것은 환경변수를 한 곳에서 중앙 관리하는 서비스인데:

  • GitHub에는 코드만 저장되고

  • 실제 API 키는 Doppler에서 안전하게 보관

  • 필요할 때만 암호화해서 전달

    검정색 배경의 웹사이트 스크린샷
    doppler Key 관리화면

결과: API 키가 외부에 노출될 걱정이 사라졌습니다. 팀원들과도 안심하고 코드를 공유할 수 있게 되었습니다.


2단계: "매일 어디서 뉴스를 가져올까?" - RSS 피드 수집 자동화

이제 어디서 뉴스를 자동으로 모을지 결정해야 했습니다.

매일 수동으로 확인하던 곳들:

  • AI News (웹사이트 뉴스)

  • ScienceDaily (과학 뉴스)

  • arXiv (최신 논문)

Claude에게 요청했습니다: "이 웹사이트들에서 자동으로 데이터를 가져오는 코드를 짜줄 수 있을까?"

Claude는 RSS 피드라는 표준 형식을 사용하여 각 웹사이트에서 자동으로 데이터를 가져오는 방식을 제안했습니다.

결과: 한 번 설정하면 매일 자동으로 100개 이상의 기사와 논문을 수집할 수 있게 되었습니다.


3단계: "중요한 것만 추려줄 수 있을까?" - AI를 활용한 자동 필터링

수집된 모든 뉴스가 중요한 것은 아닙니다. 진정한 AI 트렌드와 관련된 것만 필요했습니다.

처음에는 키워드로 필터링하려고 했습니다. 예: "AI", "머신러닝", "LLM" 같은 단어가 있으면 유지하고...

하지만 이 방식은 한계가 있었습니다. 새로운 용어나 예상하지 못한 트렌드는 놓치게 됩니다.

Claude에게 물었습니다: "키워드 필터링 말고, ChatGPT처럼 똑똑하게 '이것이 진짜 AI 트렌드인가'를 판단할 수 없을까?"

Claude는 OpenAI GPT-4o를 사용하여 각 뉴스를 분석하는 방식을 제안했습니다:

  • 기사 제목과 내용을 읽고

  • "이것이 요즘 AI 트렌드와 관련이 있는가"를 판단

  • 중요도 점수도 부여하기

결과: 키워드로 놓칠 수 있는 새로운 트렌드까지 자동으로 감지할 수 있게 되었습니다.


4단계: "정리된 리포트를 어떻게 받을까?" - 마크다운 리포트 자동 생성

리포트 결과 (클로드 스킬로 구현)

이제 자동으로 수집된 뉴스들을 이해하기 쉬운 형태로 정리해야 했습니다.

요청했던 포맷: "매일 아침 제목 + 요약 + 출처 링크 형태로 top 5를 정리해줄 수 있을까?"

Claude는 다음과 같이 구성했습니다:

  • 각 뉴스의 제목을 명확하게

  • 2~3줄 요약으로 핵심만 전달

  • 출처 링크를 클릭할 수 있도록

  • 카테고리도 자동으로 분류

결과: 매일 아침 5분이면 읽을 수 있는 깔끔한 리포트를 자동 생성하게 되었습니다.


5단계: "정말 매일 자동으로 돌까?" - GitHub Actions 일정 설정

지금까지는 필자의 컴퓨터에서만 실행했습니다. 이제 매일 자동으로 실행되도록 설정해야 했습니다.

다양한 옵션이 포함된 검은색 화면의 스크린샷
Git actions로 주지적으로 프로젝트 실행(성공과 실패의 흔적)

GitHub에는 GitHub Actions라는 자동화 기능이 있습니다. 예를 들어:

  • "매일 오전 9시에 이 코드 실행해줘"

  • "새로운 코드가 올라올 때마다 이 테스트를 돌려줘"

Claude와 함께: "매일 오전 9시(한국 시간)에 리포트 생성 코드를 실행하는 설정"을 만들었습니다.

결과: 이제 필자는 아무것도 할 필요가 없습니다. 매일 오전 9시가 되면 자동으로:

  1. 뉴스 수집 → 필터링 → 요약

  2. 정리된 리포트 파일 생성

  3. 필자는 생성된 리포트만 읽으면 됩니다


✅ 결과 (After)

Before vs After

항목

Before

After

일일 소요 시간

30분

0분 (자동)

정보 수집 출처

수동으로 3~4곳 확인

자동으로 6+ 출처 확인

중복 뉴스

여러 출처에서 같은 뉴스 반복

자동 중복 제거

API 키 보안

불안함

GitHub에 안전하게 저장됨

연간 절약 시간

-

약 182시간

실제로 얻은 것

1. 시간 절약

  • 매일 30분 × 365일 = 연 182시간 절약

  • 주 6시간을 다른 업무에 투입할 수 있습니다

2. 더 많은 정보

  • 수동으로는 3~4곳만 확인 → 자동으로 6+곳에서 수집

  • 더 광범위한 AI 트렌드 파악이 가능해졌습니다

3. 보안 강화

  • API 키가 노출될 위험이 제거되었습니다

  • 팀원들과 안심하고 코드를 공유할 수 있습니다


💬 이 과정에서 배운 AI 활용 팁

효과적이었던 것

  1. "작은 자동화부터 시작하기"

    • 처음부터 완벽한 시스템을 만으려고 하지 않았습니다

    • 뉴스 수집 → 필터링 → 요약으로 단계별로 진행했습니다

    • 각 단계마다 Claude와 함께 개선했습니다

  2. "보안을 먼저 생각하기"

    • 자동화할 때 API 키 관리는 나중에 생각하기 쉽습니다

    • 하지만 처음부터 Doppler 같은 도구로 관리하면 나중에 골치 아플 일이 없습니다

  3. "AI에게 '왜'를 설명하면 더 좋은 답을 얻습니다"

    • "뉴스를 필터링해줘" (X)

    • "매일 100개 뉴스 중 진짜 중요한 AI 트렌드 5개만 골라내고 싶습니다. 새로운 용어도 감지해야 합니다" (O)


🚀 앞으로의 계획

현재는 리포트를 파일로만 생성하고 있지만, 다음 단계를 계획 중입니다:

1단계: 자동 발송 (3개월 내)

  • 매일 생성된 리포트를 Slack에 자동 발송

  • 팀원들이 아침마다 Slack에서 바로 확인할 수 있도록 합니다

2단계: 채널 확대 (6개월 내)

  • Discord, 이메일로도 발송

  • 사용자가 원하는 채널을 선택할 수 있도록 합니다

3단계: 웹 대시보드 (1년 내)

  • 모든 트렌드를 시각적으로 볼 수 있는 웹사이트 개발

  • 카테고리별로 필터링 가능하게 합니다

  • 지난 트렌드와 비교 분석 기능을 추가합니다


📋 재사용 가능한 프롬프트

프롬프트 1: 자동화 시스템 설계 (보안 포함)

[당신의 반복 업무]를 자동화하고 싶어.

현재 상황:

  • 매일/매주 하는 작업: [구체적 작업]

  • 소요 시간: [시간]

  • 정보 출처: [어디서 가져오나]

고려사항:

  • 민감한 정보(API 키, 계정 정보) 안전 관리 필수

  • GitHub에 코드를 올릴 예정

  • 자동화 도구 추천해줘 (Doppler, GitHub Actions, Google Sheets API 등)

요청:

  1. 전체 아키텍처 제안

  2. 각 단계별 필요한 도구

  3. 보안 체크리스트

프롬프트 2: AI를 활용한 필터링 로직

매일 [정보]를 수집하는데, 그 중 [기준]에 맞는 것만 골라내고 싶어.

현재 방식:

  • 키워드 필터링 사용 중 (예: "AI", "머신러닝" 포함 시에만 유지)

문제점:

  • 새로운 용어나 예상 못 한 트렌드를 놓침

  • 무조건적인 키워드 매칭이라 정확도가 낮음

요청: ChatGPT/Claude 같은 AI를 사용해서 더 똑똑하게 필터링하는 방법을 제안해줘. (비용, 속도, 정확도 포함해서)

프롬프트 3: GitHub Actions 자동화 설정

[프로그래밍 언어로 작성한 코드]를 매일 [시간]에 자동으로 실행하고 싶어.

추가 요구사항:

  • 환경변수는 GitHub Secret이 아니라 Doppler에서 가져와야 함

  • 결과는 [파일/메시지 발송] 형태로 저장/전송

요청: GitHub Actions 워크플로우 설정 파일(.yml) 작성해줘.

2
4개의 답글

뉴스레터 무료 구독

👉 이 게시글도 읽어보세요