OpenAI, AI 개발 안전을 위한 프레임 워크 공개

Preparedness | OpenAI

  • OpenAI는 AI 모델로 인한 잠재적 위험을 시스템적으로 평가하고 예방하기 위해 '준비 프레임워크'를 도입하였다. 이는 AI 기술의 발전에 따른 위험을 추적하고, 평가하며, 예측하고, 보호하기 위한 프로세스를 설명한다.

  • 프레임워크는 여러 안전 및 정책 팀과 협력하여 AI 모델의 위험을 완화한다. 특히, 현재 모델과 제품의 오용 방지에 중점을 두며, 미래의 초지능 모델에 대한 기초 안전성을 구축한다.

  • 준비 팀은 과학에 기반을 둔 엄격한 능력 평가와 예측을 수행하며, 이를 통해 실제 데이터와 구체적인 측정을 바탕으로 위험을 평가한다. 또한, 모델의 안전 수준을 추적하기 위해 위험 '스코어카드'와 상세 보고서를 생산한다.

  • 모델의 위험 수준에 따라 기본 안전 조치를 적용하며, 특정 위험 임계값을 정의한다. 각 모델에 대한 평가 후 '중간' 이하의 점수를 받은 모델만 배포하고, '높음' 이하의 점수를 받은 모델만 추가 개발을 진행한다.

  • 준비 팀은 기술 작업을 주도하고, 안전한 모델 개발 및 배포를 위한 결정을 내리는 데 필수적인 정보를 제공한다. 이를 위해 기술적 작업을 수행하고, 보고서를 작성하며, 안전 자문 그룹을 구성하여 리더십 및 이사회에 보고한다.

  • 준비 팀은 정기적인 안전 훈련을 실시하고, 긴급한 문제에 대한 신속한 대응 능력을 갖추고 있다. 또한, 독립적인 제3자에 의한 감사와 외부 피드백을 통해 프레임워크를 지속적으로 개선할 계획이다.

1