Cloudflare announces Firewall for AI
클라우드플레어가 대규모 언어 모델(LLMs) 앞에 배치할 수 있는 보호 계층인 'AI를 위한 방화벽(Firewall for AI)' 개발을 발표했습니다. 이 새로운 보안 계층은 악의적인 사용 시도를 모델에 도달하기 전에 식별할 수 있습니다. LLMs 사용이 증가함에 따라, 고객들은 자신의 LLMs를 보호하는 최선의 전략에 대해 우려하고 있다고 합니다. 인터넷에 연결된 애플리케이션의 일부로 LLMs를 사용하는 것은 나쁜 행위자들에 의해 악용될 수 있는 새로운 취약점을 도입합니다.
AI를 위한 방화벽은 LLMs를 사용하는 애플리케이션에 특화된 고급 웹 애플리케이션 방화벽(WAF)으로, 취약점을 감지하고 모델 소유자에게 가시성을 제공하기 위해 애플리케이션 앞에 배치될 수 있는 도구 모음입니다. 이 도구 모음에는 이미 WAF의 일부인 제품들과 현재 개발 중인 새로운 보호 계층이 포함됩니다. 새로운 검증은 사용자의 프롬프트를 분석하여 모델에서 데이터를 추출하거나 기타 남용 시도를 식별합니다.
LLMs의 고유한 특성과 공격 표면을 살펴본 뒤, OWASP Top 10 for LLMs를 참조로 사용하여 어떻게 LLMs가 전통적인 애플리케이션과 다른지, 그리고 어떤 새로운 공격 벡터가 가능한지를 이해할 것입니다. 특히, LLM 작동 방식으로 인해 발생하는 새로운 위협 유형이 있습니다. 예를 들어, 연구자들은 최근 AI 협업 플랫폼에서 모델을 고립시키고 허가되지 않은 행동을 수행할 수 있는 취약점을 발견했습니다.
결론적으로, 클라우드플레어는 AI 애플리케이션을 보호하기 위한 도구 세트를 출시하는 최초의 보안 제공업체 중 하나입니다. AI를 위한 방화벽을 사용하여 고객은 언어 모델에 도달하는 프롬프트와 요청을 제어할 수 있으며, 남용과 데이터 유출의 위험을 줄일 수 있습니다.