[23.04.25] Nvidia, 텍스트 생성 AI를 '더 안전하게' 만드는 툴킷 출시

  • "더 안전한" 텍스트 생성 모델을 추구하기 위해 Nvidia는 오늘 AI 기반 앱을 보다 "정확하고 적절하며 주제에 대해 안전"하게 만드는 것을 목표로 하는 오픈 소스 툴킷인 NeMo Guardrails를 출시했습니다.
  • Guardrails에는 텍스트와 음성을 생성하는 AI 앱에 "안전을 추가"하는 코드, 예제 및 설명서가 포함되어 있습니다. Nvidia는 툴킷이 대부분의 생성 언어 모델과 함께 작동하도록 설계되어 개발자가 몇 줄의 코드를 사용하여 규칙을 만들 수 있다고 주장합니다.
  • 특히, 가드레일은 모델이 주제에서 벗어나 부정확한 정보나 유독한 언어로 응답하고 "안전하지 않은" 외부 소스에 연결하는 것을 방지하거나 최소한 방지하려고 시도하는 데 사용할 수 있습니다.
  • "궁극적으로 개발자는 Guardrails를 사용하여 애플리케이션의 범위를 벗어난 것을 제어합니다."라고 Cohen은 말했습니다. "사용 사례에 비해 너무 넓거나 반대로 너무 좁은 가드레일을 개발할 수 있습니다."

1