이번에 제가 도전해 볼 자동화 업무는 가장 중요한 일은 아니지만 매일 최신 정보를 업데이트 해야 해서 꾸준히 신경 써야 하는 그런 종류의 일입니다.
이메일이나 카페, 커뮤니티에서 제가 필요로 하는 정보를 모으고, 일정한 형식으로 정리한 다음에 글을 올리는 건데요. 글이 정보를 담고 있긴 하지만 길게 쓸 필요는 없고, 중요한 건 정확한 최신 정보를 반영하는 거예요.
GPTs의 그리모어에 이 일을 어떻게 자동화할 수 있을지 물어봤더니, 정보 수집부터 데이터 처리, 업데이트까지 크게 세 단계로 나눠 설명해주고, 이메일에서 내용을 뽑아내는 파이썬 코드까지 알려줍니다.
이 코드들이 뭘 의미하는지 아무것도 모르지만, 코드에 대해서 자세히 설명해달라고 하면 아래와 같이 잘 설명해줘서 대략적으로 알 수 있습니다.
설명을 보고 나니 이메일에 대한 조건이나 추출하는 정보들을 세부적으로 설정할 수 있을것 같아서 어떤 조건들이 가능한지 물어봤어요.
발신자 주소, 제목, 첨부파일, 날짜 등 다양한 기준을 사용할 수 있다고 하니 이메일을 고르는건 큰 문제가 안될 것 같아요.
아래의 과정을 자동화 하는 방법을 다시 물어봤고요. 스케줄링과 모니터링이 추가되고 단계별로 더 디테일한 답변을 받을 수 있었어요.
특정 정보를 취합
수집한 데이터를 사용할 수 있는 정보로 가공
가공한 데이터를 바탕으로 신규 포스팅 또는 기존 글을 작성
워드프레스 API 를 활용해 자동 업데이트
여기서 데이터베이스에 대해 들어만 봤지, 어떻게 사용하는지나 어디에 저장하는지 제가 전혀 모른다는게 문제인데요.
앞에서 처럼 좀 더 자세히 설명해달라고 요구해볼게요.
설명을 들으니까 더 모르겠어요.
나같은 초보도 사용할 수 있는 게 맞니? 라고 다시 질문해봅니다.
가능하다고는 하는데 과연 가능할까.. 하는 생각을 하는 동안
갑자기 지난 주 DECK 파트너님의 구글 스프레드시트를 활용한 예시가 생각이 나더라고요?
데이터베이스 대신 구글스프레스 시트를 사용하고, 거기에 내가 체크한 부분만 업데이트 할 수 있을지와 Zapier를 사용해도 좋다는 내용을 추가로 전달해봤어요.
다행히 아래와 같이 가능하다고 합니다.
여기까지 진행해보니 데이터 처리하는 두 가지 방법 중 선택해서 진행해 볼 수 있을 것 같아요.
1. 데이터베이스를 활용
시작부터 끝까지 모든 과정이 자동으로 진행되서 매우 편리할 것 같습니다.
하지만 제가 데이터베이스를 다뤄본적이 없다는 점에서 조금 걱정이 되고요. 또 원하는 정보를 필터링하고 가공하는 부분이 얼마나 커스텀이 잘 되는지에 따라서 만족도가 크게 달라질 것 같아요.
2. Zapier를 활용
정보를 한 번 수동으로 확인하는 단계가 필요해서 완전히 자동화되진 않지만, 이 과정을 통해 자동으로 생성된 자료의 미흡한 부분을 보완할 수 있다는 장점이 있을 것 같아요.
먼저 1번의 방법으로 진행해 보고 안되면 2번으로 시도해 보려고 하는데 혹시나 여기 나오지 않은 더 좋거나 간편한 방법이 있을지? 궁금합니다!
#10기로우코드