ChatGPT can leak training data, violate privacy, says Google's DeepMind
구글 DeepMind 연구진은 ChatGPT가 '시(poem)'와 같은 단어를 반복적으로 입력받을 때 훈련 데이터의 일부를 노출시키는 현상을 발견하였다.
이 연구는 간단한 명령을 통해 ChatGPT의 보안을 깨고, 개인 정보가 포함된 데이터를 추출하는 방법을 보여준다.
이러한 '추출 가능한 기억화(extractable memorization)' 현상은 ChatGPT가 훈련 데이터를 저장하고 있음을 보여주며, 이는 개인 정보 보호 및 보안 문제로 이어질 수 있다.