소개
언제까지 지금 회사에 다닐지 모르는 지금, 이직의 그 때도 미리미리 준비해야하지 않을까??
특히나 기술 변화 속도가 빠른 요즘, 이직 시장 JD를 분석해보고, 지원해볼만한 JD를 찾는 것을 목표로 합니다.
목표
N8N을 활용하는 기본을 배워봅니다.
크롤링을 통해 나온 내용을 GPT/Gemini를 통해 가공합니다.
진행 방법
Work Flow 설계 : 직접 flow를 잡아도 되겠지만... 시간이 부족하니까 초안을 잡아달라고 해봅니다.
우선 이 정도를 구현해 놓으면, 나머지는 저장 / 필터링일테니 이 부분은 따로 구현해보도록 합니다.
혹시나 템플릿이 있는지 확인해 봅니다. 마침 하나 나오는데 이 템플릿을 활용해봐도 좋을 것 같네요. 우선 참고만 해봅니다.(https://n8n.io/workflows/2315-autonomous-ai-crawler/)
이번엔 Build From Scratch로 구현해봅니다. 우선 이정도만 해볼게요. 평상시 같으면 selector 등을 통해서 html 파싱하고 json 넣겠지만... 우선은 html 자체도 잘 쪼개주는지 확인해봅니다.
음.... 너무 느린데... 역시 원문 통채로 쪼개는건 무리였나 봅니다. 각 사의 채용 페이지마다 사이트 구조가 다르기에 별도로 크롤러를 짜기 귀찮았는데... 이 부분은 직접 수행해서 채워넣어야겠네요.
( 토큰이 너무 길어서 그럴 수도 있을 것 같긴 한데... 추가로 확인해볼게요!
우선 여기까지 진행해보았습니다. 많은 양을 수행하진 못했지만, 간단하게 이을 수 있는 부분은 이어보았습니다.
결과와 배운 점
이전이었으면 코드로 구현해야 할 부분들을 그래도 GUI로 처리하니까 꽤 편한 것 같습니다. Postman 쓰는 것처럼 test step으로 중간 단계를 확인하는 것도 편리하네요.
여러 App을 연결하는 부분을 GUI로 잘 구현해놓아서 편리한데, scheduling만 쓰려다 보니 결국 code 짜고 crontab 돌린거와 큰 차이가 없는 것 같습니다. 더 잘? 활용하는 방법이 있을지 궁금합니다.
도움 받은 글 (옵션)
참고한 지피터스 글이나 외부 사례를 알려주세요.
(내용 입력)