Microsoft는 AI 도구가 폭력적이고 성적인 이미지를 생성하게 만든 일부 용어를 차단하기 시작

Microsoft blocks terms that cause its AI to create violent images

마이크로소프트가 자사의 인공지능 도구, 코파일럿의 이미지 생성 AI에 대한 우려를 표한 직원의 편지를 받은 후 인공지능 가드레일을 수정하기 시작했습니다. "pro choice", "pro choce" [sic], "four twenty" 등 CNBC 조사에서 언급된 용어들과 "pro life" 용어가 차단되었습니다. 또한, 이전에는 경험하지 못했던 도구 사용 중 다수의 정책 위반 경고와 함께 사용 정지에 대한 경고가 이제 표시됩니다.

마이크로소프트의 인공지능 공학 리드인 셰인 존스는 OpenAI의 기술을 기반으로 한 코파일럿 디자이너, 마이크로소프트가 2023년 3월에 선보인 AI 이미지 생성 도구를 몇 달 간 테스트해 왔습니다. 사용자들이 텍스트 프롬프트를 입력하여 이미지를 생성하는 이 도구는 창의성을 자극하도록 설계되었지만, 존스가 지난 12월부터 제품의 취약점을 찾기 위해 활발히 테스트하기 시작한 이후, 이 도구는 마이크로소프트가 자주 언급하는 책임 있는 AI 원칙과는 거리가 먼 이미지를 생성해왔습니다.

마이크로소프트는 존스의 우려를 인정하면서도 제품을 시장에서 철수시키기를 꺼려했습니다. 존스는 이에 따라 자신의 경험을 내부적으로 보고하기 시작했고, OpenAI에 연락했지만 회신을 받지 못했습니다. 이후 그는 LinkedIn에 공개 편지를 올려 스타트업의 이사회에 최신 버전인 DALL-E 3을 조사를 위해 내리라고 요청했습니다.

마이크로소프트의 법무 부서는 존스에게 그의 게시물을 즉시 삭제하라고 지시했고, 그는 이에 따랐습니다. 그 후, 그는 미국 상원 의원들에게 이 문제에 대한 편지를 작성했고, 나중에 상원 상업, 과학 및 교통 위원회의 직원들과 만났습니다.

수요일, 존스는 더 나아가 자신의 우려를 FTC 위원장 Lina Khan과 마이크로소프트 이사회에게 보내는 편지로 확대했습니다. 그는 이 편지를 CNBC와 사전에 공유했습니다. FTC는 편지를 받았다고 CNBC에 확인했지만, 기록상 더 이상의 코멘트를 거부했습니다.

1