ChatGPT의 거짓말로부터 피하기 위해 알아야 할 3가지 원칙

ChatGPT는 다음 3가지 원칙에 해당할 경우 거짓말을 합니다.

  1. "아는" 것보다 더 많은 것을 요구하면 거짓말을 한다.
  2. "사람"이라고 가정하면 거짓말을 하게 된다.
  3. 스스로 설명할 수 있다고 가정하면 거짓말을 하게 된다.

AI가 당신에게 대답 생각하는 것이 도움이 될 수 할 때 많은 기능을 최적화하려고 하는 것으로 있으며, 그 중 가장 중요한 것 중 하나는 당신이 좋아할 대답을 제공하여 "당신을 행복하게 만드는 것.
이것은 종종 '정확해야 한다'라는 목표보다 우선시됨. 매우 만족스럽게 느껴지는 그럴듯하고 종종 미묘하게 부정확한 답변을 추측하는 데 매우 능숙하다는 것

거짓말을 해결하기 위한 솔루션

1. AI가 알 수 없다고 생각하는 사실을 묻지 않는 것 ( 인용, 수치 사실, 수학, 인용문 또는 자세한 일정과 같은 세부 사항을 요청할 때 거짓말을 할 가능성이 가장 높다 )

2. AI에 대한 사실적인 요청을 할 때
답변을 스스로 확인할 것


하지만 그럼에도 불구하고 작성자는 ChatGPT를 계속 사용합니다.
그 이유로, 그는 Chatbot AI로 작업하는 것이 믿을 수 없을 정도로 인간적으로 느껴지기 때문이라 말합니다.
그들의 대답은 시뮬레이션이라는것이 중요하지 않을 정도로 충분히 만족감을 줍니다.
또한, 우리는 모든 사람이 실수를 하기 때문에 가끔 거짓말을 용서할 수 있어야 하지 않을까요?
3

(채용) 크리에이터, 마케터, AI 엔지니어

지피터스: 콘텐츠를 AI로 재가공 해 원소스 멀티유즈하는 스타트업

👉 이 게시글도 읽어보세요