저는 AI 관련 전공과 무관한 비전공자입니다. 깊은 지식도 없는 평범한 학부생입니다. ML, 딥러닝, LLM, NLP 아무것도 깊게 공부하지 않았습니다. ChatGPT가 나온 이후 미천하고 부족한 지식으로 알음알음 공부해가고 있지만 많이 부족합니다. 그냥 재미로 읽어주셨으면 좋겠습니다. 잘못된 부분에 대한 지적은 언제든 환영합니다.
Hallucination에 대한 우려는 아직도 현재진행형이다. 미국쪽에서는 당신은 90%로 안전하게 도착하는 비행기에 탑승하실 수 있나요? 라고 말하더라. 솔직히 나도 그런 비행기엔 못타겠다.
하지만 세상일이 비행기 타는 일만 있는건 아니지 않은가? 우리가 ChatGPT를 공부하러 모인것도 그런 이유일 터이다. 올바른 곳에 올바르게 쓰인다면 빛을 발할 물건일 것이다. 이런 거짓말쟁이 ChatGPT를 왜 써야만 할까?
- ChatGPT는 너무나도 사람같다.
최근 참 재미난 연구결과를 보았다. '쓸모 있어 보이는 대답일수록 Hallucination 확률이 증가하더라'. 더 좋은 대답일수록 알고보니 거짓말이라는 얘기다. 그런 면에서 더욱 사람같다고 느껴지더라. 이 사기꾼자식
특히 대학가에서 ChatGPT 사용 후기 들어보면 꼭 나오는 말이 있다. 논문 이상한거 알려주더라. 쓸모없다. 그럼 난 이런말을 꼭 해주고 싶다. " 너 지금 이자리에서 논문 제목, 저자, URL까지 정확하게 외워봐"
사람도 거짓말을 하고 실수를 한다. ChatGPT는 Language Model인 만큼, 인간과 비교해야 한다고 생각한다. 특히 너무나도 뛰어난 모방능력을 가졌다. 인간과 비교했을때, 모방능력만으로도 더 나은 결과값을 보여주리라 생각한다. 앞서 말했던 의사선생님 얘기처럼, 한 개인이 내줄수있는 솔루션보다 ChatGPT의 빅데이터 솔루션이 더 정확할 수 있다.
하지만 모방능력만 가지고는 Hallucination은 해결하지 못할것이다. 생각보다 인간이 Yes or No로 사고하는 작업이 많기 때문이다. 선험적 지식과 경험적 지식이 조화를 이뤄야만 이게 해결될 것이다. 나는 ChatGPT가 더 나은 대답을 하는 세상이 아니라, ChatGPT가 정확한 대답을 '가져다 주는' 세상이 먼저 올거라고 본다. 그리고 그 다음 단계가 ChatGPT가 인간전문가를 대체하는 일이다.
ChatGPT가 선험적 지식과 경험적 지식의 조화를 이루게 할 수는 없지만, Yes or No로 작동하게 할 수 있다. 그것이 Plugin이다.
우리가 총을 쏜다고 생각해보자. 우리가 손가락에 줄 수 있는 최대 힘을 1이라고 했을때, 1만큼 다줘야 총이 나갈까? 0.5만 줘도 총알은 나간다. 하지만 총알이 나가는것은 Yes or No다. 우리는 앞으로 ChatGPT에게 수많은 총을 건네줄 것이다. 2000가지, 아니 수만 수백만의 총 선택지가 주어지고, ChatGPT는 나의 상황을 나름대로 통계내어서 가장 적합한 총을 단숨에 선택한다. 우리는 단지 시킬 뿐이다. 목표를 쏘라고
내가 이해한 Microsoft의 TaskMatrix가 이런 내용이다. ( 가방끈이 짧아 제대로 못 읽은건가 싶다... ) 총을 쏘고말고에서 Hallucination이 있을까? ( 물론 오인사격은 있을 수 있겠다. 그럼 다시 쏘라고 하면 되겠지... ) 앞으로 ChatGPT는 인간의 대리인으로서 중간다리 역할을 할 것이다. Solution은 이미 만들어져 있고, ChatGPT가 솔루션을 만드는것이 아닌 '배달부' 역할을 하는 식으로 말이다.