애플이 GPT-4를 능가하는 성능과 화면 맥락 이해력을 가졌다고 주장하는 모델인 ReALM을 공개했습니다. 연구 논문은 ReALM을 화면 상의 작업, 대화 맥락, 백그라운드 프로세스를 이해할 수 있는 시스템으로 소개합니다.
ReALM은 화면 정보를 텍스트로 변환하는 접근 방식을 사용하여, 번거로운 이미지 인식 매개변수를 우회하고 보다 효율적인 온-디바이스 AI를 구현합니다. ReALM은 화면 콘텐츠와 사용자의 활성 작업을 모두 고려함으로써, Siri와 같은 음성 어시스턴트와의 원활하고 핸즈프리한 사용자 경험을 위한 새로운 가능성을 열어준다고 합니다.
애플이 WWDC 2024를 준비하는 가운데, ReALM의 공개는 애플이 AI 개발에서 상당한 진전을 이루고 있음을 시사합니다. 연구 논문의 결과는 ReALM이 더 적은 매개변수에도 불구하고 GPT-4를 상당히 능가할 수 있음을 보여주며, 애플의 AI 기반 제품 및 서비스의 유망한 미래를 예고하고 있습니다.
주요 내용:
1. 애플의 ReALM AI 모델은 화면 맥락과 사용자 작업 이해에서 GPT-4를 능가합니다.
2. ReALM의 화면 정보를 텍스트로 변환하는 혁신적인 접근 방식은 보다 효율적인 온-디바이스 AI를 가능하게 합니다.
3. ReALM의 공개는 다가오는 애플 WWDC 2024에서 흥미로운 AI 관련 발표가 있을 것임을 시사합니다.
🔗출처