Microsoft blocks terms that cause its AI to create violent images
마이크로소프트가 자사의 인공지능 도구, 코파일럿의 이미지 생성 AI에 대한 우려를 표한 직원의 편지를 받은 후 인공지능 가드레일을 수정하기 시작했습니다. "pro choice", "pro choce" [sic], "four twenty" 등 CNBC 조사에서 언급된 용어들과 "pro life" 용어가 차단되었습니다. 또한, 이전에는 경험하지 못했던 도구 사용 중 다수의 정책 위반 경고와 함께 사용 정지에 대한 경고가 이제 표시됩니다.
마이크로소프트의 인공지능 공학 리드인 셰인 존스는 OpenAI의 기술을 기반으로 한 코파일럿 디자이너, 마이크로소프트가 2023년 3월에 선보인 AI 이미지 생성 도구를 몇 달 간 테스트해 왔습니다. 사용자들이 텍스트 프롬프트를 입력하여 이미지를 생성하는 이 도구는 창의성을 자극하도록 설계되었지만, 존스가 지난 12월부터 제품의 취약점을 찾기 위해 활발히 테스트하기 시작한 이후, 이 도구는 마이크로소프트가 자주 언급하는 책임 있는 AI 원칙과는 거리가 먼 이미지를 생성해왔습니다.
마이크로소프트는 존스의 우려를 인정하면서도 제품을 시장에서 철수시키기를 꺼 려했습니다. 존스는 이에 따라 자신의 경험을 내부적으로 보고하기 시작했고, OpenAI에 연락했지만 회신을 받지 못했습니다. 이후 그는 LinkedIn에 공개 편지를 올려 스타트업의 이사회에 최신 버전인 DALL-E 3을 조사를 위해 내리라고 요청했습니다.
마이크로소프트의 법무 부서는 존스에게 그의 게시물을 즉시 삭제하라고 지시했고, 그는 이에 따랐습니다. 그 후, 그는 미국 상원 의원들에게 이 문제에 대한 편지를 작성했고, 나중에 상원 상업, 과학 및 교통 위원회의 직원들과 만났습니다.
수요일, 존스는 더 나아가 자신의 우려를 FTC 위원장 Lina Khan과 마이크로소프트 이사회에게 보내는 편지로 확대했습니다. 그는 이 편지를 CNBC와 사전에 공유했습니다. FTC는 편지를 받았다고 CNBC에 확인했지만, 기록상 더 이상의 코멘트를 거부했습니다.