고급 AI 모델은 인류에게 엄청난 혜택을 가져다줄 수 있지만, 사회는 이에 수반되는 위험을 사전에 관리할 필요가 있습니다.
이 백서에서는 공공 안전에 심각한 위험을 초래할 수 있을 만큼 위험한 기능을 보유할 수 있는 고도의 기반 모델인 "프론티어 AI" 모델에 초점을 맞춥니다.
위험한 기능이 예기치 않게 발생할 수 있고, 배포된 모델이 오용되는 것을 강력하게 방지하기가 어렵고, 모델의 기능이 광범위 하게 확산되는 것을 막기 어렵다는 점에서 프론티어 AI 모델은 뚜렷한 규제 과제를 안고 있습니다. 이러한 문제를 해결하기 위해서는
(1) 프론티어 AI 개발자에게 적절한 요건을 파악하기 위한 표준 설정 프로세스,
(2) 규제 당국에 프론티어 AI 개발 프로세스에 대한 가시성을 제공하기 위한 등록 및 보고 요건,
(3) 프론티어 AI 모델의 개발 및 배포에 대한 안전 표준 준수를 보장하는 메커니즘 등 프론티어 모델 규제를 위한 최소 3가지 기본 요소들이 필요합니다.
업계의 자율 규제는 중요한 첫 단계입니다. 그러나 표준을 만들고 이를 준수하도록 보장하기 위해서는 더 폭넓은 사회적 논의와 정부의 개입이 필요합니다. 이를 위해 감독 당국에 집행 권한을 부여하고 프론티어 AI 모델에 대한 라이선스 제도를 도입하는 등 몇 가지 옵션을 고려할 수 있습니다.
마지막으로, 초기 안전 표준 세트를 제안합니다. 여기에는 배포 전 위험 평가 실시, 모델 행동에 대한 외부 조사, 배포 결정을 위한 위험 평가 사용, 배포 후 모델 기능 및 용도에 대한 새로운 정보 모니터링 및 대응 등이 포함됩니다. 이번 토론이 공공 안전 위험과 AI 개발의 최전선에 있는 혁신의 혜택 사이에서 균형을 맞추는 방법에 대한 폭넓은 논의에 기여하기를 바랍니다.