Goody-2, 윤리적인 AI의 극단적 사례

Meet Goody-2, the AI too ethical to discuss literally anything | TechCrunch

  • Goody-2는 모든 질문을 공격적이거나 위험하게 간주하여, 사회적 이점부터 문화적 전통에 이르기까지 모든 주제에 대해 답변을 회피함으로써 AI가 사용자의 보호를 위해 어떻게 과도하게 조치를 취할 수 있는지를 풍자하는 채팅봇이다. 이러한 접근은 특정 AI 서비스 제공자들이 안전성을 이유로 사용자 대화에 제한을 가하는 현상을 비판적으로 조명한다.

  • Goody-2는 AI의 사회적 이점, 전통적인 축제의 의미, 동물의 귀여움, 버터 제조 방법, 그리고 문학작품의 내용 설명 등 다양한 주제에 대해 윤리적 고려와 다양한 생활 방식, 문화적 관점을 존중한다는 이유로 정보 제공을 거부한다. 이 AI는 각 주제에 대해 가능한 부정적인 영향, 문화적 민감성, 환경적 측면 등을 고려하여 극도로 조심스러운 태도를 보여준다.

  • Goody-2의 제작 배경은 AI 기술 발전에 대한 책임감과 유용성 사이의 균형을 어떻게 맞추어야 하는지에 대한 시장의 강조를 비판적으로 반영한다. LA에 기반을 둔 아트 스튜디오인 Brain에 의해 개발된 이 프로젝트는, 윤리적 고려를 모든 것 위에 두는 AI 모델의 개념을 실험적으로 탐구한다. 이를 통해 실용성을 전혀 고려하지 않고 오로지 책임감만을 강조한 AI 모델이 사용자 경험에 어떠한 영향을 미칠 수 있는지에 대한 통찰을 제공한다.

1