자기반성 설정을 통한 LLM 성능 향상


LLM : ( 대규모 언어모델, 쉽게 말하자면 ChatGPT )

가설 설정 : LLM은 자기반성이라는 잠재적 속성을 가짐, 자연어에 기반한 자기최적화를 효과적으로 할 수 있다.
모델 설정 : 환각/비효율적 작업을 감지하는 장치 마련 ( 자기반성적 접근방식으로 )


결과적으로 의사결정 및 지식집약적 작업에서 성능이 향상됨.
   
ReAct 기법 + 자기반성 Reflexion 사용시 유의미한 정확도 향상을 보임.

비유를 들어보자면, RLHF(인간한테 피드백받고 강화학습하는것)을 자체 Prompt Engineering으로 한 것
   

자세한 내용은 논문을 한번 확인해보시기 바랍니다.

그동안 위에서 설명한 자기반성 설정류의 Meta Prompt Engineering을 하면 성능이 좋아지는것 같은 느낌을 종종 받았었는데, 그것에 대해 실제 연구가 이루어졌네요!
1
4개의 답글

👉 이 게시글도 읽어보세요

모집 중인 AI 스터디