안녕하세요. 인사삼아 제가 시도한 걸 써봅니다.

소개

시도하고자 했던 것과 그 이유를 알려주세요.

"나보다 나를 더 잘 아는 AI 비서 만들기" AI를 활용해 나 자신을 정확히 정의하고, 나에게 꼭 필요한 맞춤형 정보(커뮤니티, 학습 자료 등)를 추천받고자 했습니다. AI라는 도구가 단순히 정보를 찾는 수준을 넘어, 나의 시야를 넓혀주는 진정한 파트너가 되기를 바랐기 때문입니다. 이를 위해 17년간 운영해온 블로그 포스팅을 원재료로 사용하여 '나'라는 사람의 특성을 추출하는 '베이지안 마인드' 프로젝트를 진행했습니다.


진행 방법

어떤 도구를 사용했고, 어떻게 활용하셨나요?

기존에는 '키워드 추출'과 '요약' 과정을 거치는 복잡한 파이프라인을 설계했으나, 시행착오 끝에 '원문 통째로 던지기'라는 아주 단순한 방식을 채택했습니다.

  • 활용 도구: LLM (ChatGPT, Claude 등), 블로그 원문 데이터

  • 활용 데이터: 최근 블로그 포스팅 10개의 원문 + 간략한 자기소개 정보

  • 핵심 전략: 중간 단계(요약, 키워드화)를 모두 생략하고 AI의 문맥 파악 능력을 그대로 활용

사용한 프롬프트 전문

(아래에 블로그 포스팅 10개의 원문을 붙여넣습니다)

나에 대한 소개: [간략한 소개 정보 입력] 질문: 위 글들을 작성한 사람의 관심사와 사고방식을 분석해줘. 그리고 이 사람이 흥미를 느낄만한 커뮤니티, 공부할 만한 주제, 혹은 추천할 만한 웹사이트와 영상을 구체적으로 제안해줘.


결과와 배운 점

배운 점과 나만의 꿀팁

  • AI는 요약이 필요 없다: 인간은 방대한 데이터를 읽기 위해 요약본이 필요하지만, AI는 원문의 디테일에서 맥락을 읽어냅니다. 요약은 오히려 정보를 손실시키고 결과물을 평범하게 만듭니다.

  • 적정량의 '원 데이터(Raw Data)'가 핵심: 실험 결과, 50개는 너무 많아 논점이 흐려지고(보편적인 답), 10개 정도의 원문을 주었을 때 가장 구체적이고 사적인 취향에 근접한 추천을 받을 수 있었습니다.

과정 중에 어떤 시행착오를 겪었나요?

  • 프로그래밍식 사고의 함정: 처음에 저는 AI를 다룰 때 '1단계: 요약, 2단계: 키워드 추출, 3단계: 검색'과 같이 단계별 알고리즘을 짜듯 명령했습니다. 하지만 이 과정에서 마치 '로미오와 줄리엣'을 '러브스토리'라는 단어 하나로 압축해버리는 것과 같은 심각한 정보 왜곡이 발생했습니다. 결과물은 늘 뻔하고 재미없었습니다.

도움이 필요한 부분이 있나요?

  • 현재 10개 정도의 글이 최적의 효율을 내고 있는데, 더 방대한 데이터(예: 17년치 글 전체)를 넣으면서도 논점이 흐려지지 않게 처리하는 '데이터 슬라이싱'이나 '가중치 부여' 기법에 대해 더 고민해보고 싶습니다.

앞으로의 계획이 있다면 들려주세요.

  • AI로 업무를 처리하는 분들이 많지만 저는 AI가 저라는 사람을 이해하고 저에게 필요한 컨텐츠나 지식을 추천하는 시스템을 관심가지고 있습니다. 제가 전혀 모르는 세계를 열어주기를 기대하는 것이죠. 그걸 위해서 여러번 실험하다가 결국 아주 단순한 결과에 이르렀습니다. 제가 생각하지 말고 데이터를 그대로 줘야 한다는 것이죠. 앞으로는 이것이 더 쓸모 있는 결과를 내놓을 수 있도록 더 고민해볼 생각입니다. 여담이지만 gpters라는 사이트를 이렇게 알게 된 것입니다. 이런 식으로 저에게 좋은 조언을 해주는 AI를 만드는 것이 정의 한가지 목표입니다.

1

뉴스레터 무료 구독

👉 이 게시글도 읽어보세요