[9기 AI 임팩트] 심리상담 분야의 생성형 AI도입에 대한 위험성과 가능성

시작전에, 24년 초 현재 ChatGPT가(정확히는 생성형 AI) 어느 분야에서 강점, 혹은 약점을 보이는지 이야기 해보고자 합니다.

강점분야

- 데이터가 많고, 수집이 비교적 쉬운분야

- 개인정보나 민감정보와 얽히지 않은 분야

- 질문과 답변이 전부 객관적인 분야 (ex : 단순 반복작업, 바둑)

- 반대로 답에 대해서 '어느정도만 정확하면' 통용되는 분야

(ex : 뉴스요약, 금융 트랜드 요약, 야놀자 숙소 리뷰요약 등)

쉽게 말하면, 정밀함 보다는 전체적인 경향성이 중요하며,

조금 틀린다고 인간이 위험해지진 않는 분야.

약점분야

- 데이터가 적고, 수집이 어려우며 가공에 많은 비용이 들어가는 분야

- 개인정보나 민감정보와 얽혀있는 분야.

- 답변은 주관적인데, '틀리면 안되는 분야'

쉽게 말하면 틀린 답변을 제공했을때 인간이 위험해지는 분야.


위의 기준으로 하면 생성형 AI가 어떤 분야에서 강하고 약한지에 대해서

대략적인 감을 잡을 수 있을겁니다.

(2016년 알파고가 인간을 이긴 '바둑' 은 AI가 극단적으로 강한 분야입니다.

하긴, 그러니 딥러닝 초기임에도 최고의 아웃풋이 나왔겠죠.)



1. 심리상담과 의료 분야 대부분은 생성형 AI의 약점분야에 속합니다.

네, 심리상담, 의료분야는 데이터가 적고, 수집이 어렵고, 민감정보에 해당되며

관련규제 또한 막강한데, 틀린 답변을 제공하면 안되는 분야입니다.

...약점분야가 될 수 있는 모든 요소를 다 갖추고 있네요.

왜 두 분야가 생성형AI의 약점인지 이해가 안되면, 하나 질문을 던져보겠습니다.

'99%의 정확도가 나오는 AI는 훌륭한 AI인가?'

이 말을 제 주변의 AI전문가들에게 던졌을 때 첫 반응은 이랬습니다.

'에이, 99%가 정확도가 나왔다는게 오류일 가능성이 높아요. 어떻게 그렇게 정확해요?'

실제로 머신러닝, 딥러닝 계열의 '상용화 가능한' 정확도는 사안마다 매우 틀리지만

85~95%정도가 중론입니다. 애초에 '뭐가 AI의 정확도인가?'라는 이슈 하나만 가지고도 전문가들은 하루 종일 토론합니다만.

어쨌든, AI기술이 극히 발전해서, 99% 정확도의 의료진단 AI가 있다고 치겠습니다.

그 AI는 분야에 따라서는 '살인 AI' 가 됩니다.

수술하다가 100명중에 1명의 암을 발견하지 못하면, 뇌수술에서 메스를 대야할 위치가

0.5cm 틀리면 환자는 죽을테니까요.

그리고 전 정신건강 문제는 암 진단만큼이나 중대하고 신중해야하는 문제라 봅니다.



2. 현재의 심리상담 - 생성형 AI의 연계에 대한 찬사는,

아직 사업화가 안된, 개개인의 습작 단계이기 때문에 과장된 면이 있습니다.

유료서비스를 하는 웹툰이나 웹소설을 보면, 좋은 작품인데도 생각보다 많은

비난이나 욕설을 받는 경우가 많습니다.

그런데, 커뮤니티에 올라오는 습작소설이나 웹툰은, 분명 전자보다 퀄리티가

훨씬 떨어지는데도 칭찬 일색일 경우가 많습니다.

이런 차이는 왜 일어날까요? 그건 사람들이 무료컨텐츠에 대해 생각보다

많이 관대하기 때문입니다. 그것이 디씨든 루리웹이든 클리앙이든 다른 어디든

'나름대로 정성껏 쓴 글/컨텐츠' 에 대해서 부정적인 의견이 나오는 경우는 거의 없습니다.

'아무 댓가없이 좋은 글 올려줬는데 너무 날선 비난은 하면 안된다'
‘괜히 정성글 비난하다간 커뮤니티에 남을 글이 없다’

라는 암묵적인 합의가 있으니까요.

그것이 나쁘다는 것은 아닙니다. 오히려 인터넷에서의 집단지성은 그런

'정성글' 들이 하나둘 모여서 이루어집니다 (대표적인 예가 브런치, 나무위키 등입니다)

하지만, 인터넷에서의 긍정적인 반응이, 해당 컨텐츠가 전문화, 사업화 할수 있는

퀄리티라는 보장은 절대 되지 못합니다.

인터넷이나 SNS에서 긍정적인 반응을 받은 아이템을 가지고 창업을 시도한

많은 초기 스타트업들이 쓰러진 대표적인 이유입니다. '그럴싸하다' 와 '사업화' 사이에는

심연이 몇개씩 있으니까요.

제가 작성했던 '심리상담 분야의 생성형 AI도입에 대한 기술 동향' 자료에도

나옵니다만, 해당 글에 나오는 생성형 AI의 심리상담에 대해 호평을 한 이들은

심리상담과 연관이 거의 없는 사람들입니다.

Stability AI는 AI회사이며, 레딧은 한국으로 치면 디씨같은 대형 커뮤니티입니다.

'ChatGPT 연애학개론' 등의 저자들 역시 심리상담이나 정신건강의 전문가와는

아주 거리가 멉니다. 애초에 레딧에서의 호평 역시 '어 이정도 나오면 대충 된거아냐?'

라는 비전문가들의 가벼운 공감이지, 전문가들의 공인이 아닙니다.

3. 그럼 심리상담에 생성형 AI활용은 안된다는 거야?

결론부터 말하면 아닙니다. 심리상담-생성형 AI 연계에 대해 우려하는건

'심리문제에 대한 최종 진단을 전문가 검수 없이 다이렉트로 내담자에게 내보내는 것' 입니다. 그건 위험하니까요.

하지만 정신건강의사나 심리상담사를 돕는 보조도구로서의 효용성은 매우 높습니다.

앞에 언급한 심리상담에 대한 레딧에서 연구말인데, 해당 분야의 저자들은

'의사 대체' 가 아니라 '의료증강', 즉 의사를 보조할 수 있는 AI의 가능성에 대해 강조했습니다..

"우리 연구는 ChatGPT와 의사를 겨루었지만 궁극적인 해결책은 의사를 완전히 내쫓는 것이 아니다" "ChatGPT를 활용하는 의사가 더 나은 공감 치료를 위한 해답"

- Adam Poliak, 연구 공동저자, 브라이언 마우르 컬리지(Bryn Mawr College) 컴퓨터 과학 조교수

"메시지를 통해 의료 서비스를 제공하고 새로운 의료 안전 시스템을 구축하며 더 높은 품질과 더 효율적인 치료를 제공하여 의사를 지원한다"

마크 드레즈(Mark Dredze) 박사, 연구 공동저자, 존스 홉킨스


상담 초기 데이터를 수집하기 위한 설문, 정밀분석을 위한 요약과 정리, 일정 기준에 따른 고객(내담자) 의 분류까지, ChatGPT가 강력한 기능을 보이면서도 위험하지 않고, 그러면서도 심리상담사나 정신건강 의사들에 있어 매우 니즈가 높은 기능들입니다.
심리상담 분야의 디지털 전환률의 문제에 더 가깝긴 하지만, 현재의 심리상담 에서는 상담시간보다 상담 후 처리업무가 더 많은 시간을 차지한다고 까지 하니까요.

한국에서는 아쉽게도 관련된 분야에 대한 시장이나 지원이 작은편이어서, 아직까지는 일부 기업이나 기관들만(관련분야 종사자로서 말씀드리면, 사실 ‘일부’ 라는 말을 쓰기 민망할 정도로 적은 숫자긴 합니다) 심리상담과 생성형 AI의 연계에 대해서 연구 중 입니다만, 결국 생성형 AI자체는 시대의 대세인 이상 앞으로 관련 연구나 도입이 늘어나지 않을까. 하고 예상해봅니다.

5
3개의 답글

👉 이 게시글도 읽어보세요

모집 중인 AI 스터디