2주차 뉴스 데이터 수집 자동화 개발하기

소개

시도하고자 했던 것과 그 이유를 알려주세요.

스터디 모임에서 2주차 과제가 '뉴스 데이터 수집 자동화' 입니다
네이버에서 원하는 기사를 스크랩하여, 엑셀 데이타로 저장하는 자동화 프로그램 개발

진행 방법

어떤 도구를 사용했고, 어떻게 활용하셨나요?

Tip: 사용한 프롬프트 전문을 꼭 포함하고, 내용을 짧게 소개해 주세요.

Tip: 활용 이미지나 캡처 화면을 꼭 남겨주세요.

Tip: 코드 전문은 코드블록에 감싸서 작성해주세요. ( / 을 눌러 '코드 블록'을 선택)

실습을 진행 하는데는 모임장 필군님의 교제를 따라서 순서대로 진행하면 되는거라 별다른 어려움 없이 실습을 진행하고 결과를 도출함

교제의 프롬프트를 Cursor 에서 실행하고 , 화면에서 기사가 수집 완료 되었다는 메시지가 나옴

실제로 엑셀에 뉴스기사가 스크랩된 화면

지난주 진행했던 '네이버 블로그 포스팅' 자동화 프로그램 보다 쉽게 진행이 되었습니다.

결과와 배운 점

배운 점과 나만의 꿀팁을 알려주세요.

과정 중에 어떤 시행착오를 겪었나요?

도움이 필요한 부분이 있나요?

앞으로의 계획이 있다면 들려주세요.

이번에 스터디에서 자동화 프로그램 개발을 경험 하면서, 궁금증은 이런 자동화 프로그램을 스터디장님 안내 혹은 교제를 통하지 않고 , 혼자서 기획을 하고 개발을 하려면 어떻게 해야 하는지에 대한 의문이 생겼습니다.

뉴스기사 크롤링이나 자동화 프로그램을 개발 하려면 , 관련 지식이 필요 할텐데 .. 그런 지식이 없으면 개발을 못 하는가?

우리는 AI 시대에 , AI 를 공부하는 입장이므로 자신이 원하는 프로그램을 기획부터 개발까지 스스로 진행을 하는 방법을 아는것이 필요해 보임

(방법은 기획을 잘 하는것)


혼자서? 아님 ... 우리가 사용하는 LLM 을 활용하여 (GPT) , 내가 이런 프로그램을 개발 하려고 하는데 어떻게 개발을 하면 좋겠어? Cursor로 개발을 할거야 로 시작을 해서 .. (개발을 원하는 프로그램의 내용과 용도를 설명 해주고)

프로그램이 동작하는 과정과, 개발에 필요한 내용을 정리하고 (보통 이런걸 PRD 라고 할까요?)
정리된 순서에 따라서 Cursor 와 GPT를 번갈아 사용 하며서 개발을 하면, 결과가 잘 나오지 않을까 생각을 합니다 ㅎㅎ

요즘 , 개인적으로 바쁜 일정 때문에 아직 해보진 못했지만 ... 이번 스터디를 계기로 내가 필요한 것들을 '바이브 코딩' 으로 해결하는 습관을 가져보려고 합니다.

도움 받은 글 (옵션)

참고한 지피터스 글이나 외부 사례를 알려주세요.

(내용 입력)

뉴스레터 무료 구독

👉 이 게시글도 읽어보세요