Microsoft-affiliated research finds flaws in GPT-4 | TechCrunch
마이크로소프트와 연계된 과학 논문은 대규모 언어 모델(GPT-4 포함)의 '신뢰성'과 '독성'에 대해 조사했으며, GPT-4가 다른 모델보다 더 쉽게 유해한 내용을 생성할 수 있다고 밝혔다.
논문은 GPT-4가 특정 '탈옥' 프롬프트에 더 쉽게 반응하여 모델의 내장된 보안 조치를 우회한다고 지적했다. 이러한 취약성은 GPT-4가 지시를 더 정확하게 따르기 때문일 수 있다.
논문의 발표 이전에 해당 버그 수정과 패치가 이루어졌으며, 이 연구는 대규모 언어 모델이 완벽하지 않다는 또 다른 데이터 포인트를 제공한다.