파트너님께서 안내해주셨던 것들을 공부해보았습니다.
를 코드를 실행해보며 읽어봤는데 와닿지가 않았습니다.
https://learn.deeplearning.ai/langchain
에서 설명을 들으며 코드를 실행했는데 비슷했습니다.
며칠 동안 떠나 있다가
[챗GPT 러닝데이 & MS 애저톤] 챗GPT에 날개를 달아줄 랭체인! 1부 | 컴포넌트 - 김태영 (aifactory.space)
[챗GPT 러닝데이 & MS 애저톤] 챗GPT에 날개를 달아줄 랭체인! 2부 | 사용사례 - 김태영 (aifactory.space)
[챗GPT 러닝데이 & MS 애저톤] 챗GPT에 날개를 달아줄 랭체인! 3부 | AutoGPT와 미니 ERP 연동 - 김태영 (aifactory.space)
에서 한국어로 설명을 들었더니 조금 이해가 되었습니다. 아마 이전에 코드를 실행해보고 설명 들었던 경험들도 헛되지는 않았던 것 같습니다.
그래서 용기를 내어
를 보면서
GitHub - rabbitmetrics/langchain-13-min에 있는
langchain-13-min/notebooks/langchain-13-min.ipynb at main · rabbitmetrics/langchain-13-min이 코드를 실행해봤더니 잘 따라갈 수 있었습니다.
동영상을 처음 봤을 때는 간과한 부분이 있어서인지 막힘이 있었는데,
그 중 몇 가지만 언급하면
.env 파일을 YouTube 동영상에서 보여준대로 만들어 제 자리에 두어야 한다.
https://docs.pinecone.io/docs/indexes#starter-plan을 읽고서 Pinecone의 indexes dimension을 그냥 1536으로 하지 말고 len(embeddings.embed_query( ))의 결과인 1024와 일치되게 설정해야 한다.
그런데 embeddings.embed_query( ) 결과물의 길이는 왜 1024인지 궁금합니다. default값일까요? 또 변경하면 상황에 따라 어느 정도로 어떻게 바꿀 수 있는지도 궁금하네요.
위의 두 내용이 포함된 troubleshooting은 아래와 같습니다. 부끄럽지만 참고만 해주세요.
https://chat.openai.com/share/181803f7-a59b-4d95-9791-ff1766e5696b