OpenAI는 AI 모델로 인한 잠재적 위험을 시스템적으로 평가하고 예방하기 위해 '준비 프레임워크'를 도입하였다. 이는 AI 기술의 발전에 따른 위험을 추적하고, 평가하 며, 예측하고, 보호하기 위한 프로세스를 설명한다.
프레임워크는 여러 안전 및 정책 팀과 협력하여 AI 모델의 위험을 완화한다. 특히, 현재 모델과 제품의 오용 방지에 중점을 두며, 미래의 초지능 모델에 대한 기초 안전성을 구축한다.
준비 팀은 과학에 기반을 둔 엄격한 능력 평가와 예측을 수행하며, 이를 통해 실제 데이터와 구체적인 측정을 바탕으로 위험을 평가한다. 또한, 모델의 안전 수준을 추적하기 위해 위험 '스코어카드'와 상세 보고서를 생산한다.
모델의 위험 수준에 따라 기본 안전 조치를 적용하며, 특정 위험 임계값을 정의한다. 각 모델에 대한 평가 후 '중간' 이하의 점수를 받은 모델만 배포하고, '높음' 이하의 점수를 받은 모델만 추가 개발을 진행한다.
준비 팀은 기술 작업을 주도하고, 안전한 모델 개발 및 배포를 위한 결정을 내리는 데 필수적인 정보를 제공한다. 이를 위해 기술적 작업을 수행하고, 보고서를 작성하며, 안전 자문 그룹을 구성하여 리더십 및 이사회에 보고한다.
준비 팀은 정기적인 안전 훈련을 실시하고, 긴급한 문제에 대한 신속한 대응 능력을 갖추고 있다. 또한, 독립적인 제3자에 의한 감사와 외부 피드백을 통해 프레임워크를 지속적으로 개선할 계획이다.
OpenAI, AI 개발 안전을 위한 프레임 워크 공개
1