중국에서 공개한 뇌 기반 인공지능 모델 ‘SpikingBrain 1.0’이 주목받고 있어요. 이 모델은 사람의 뇌처럼 꼭 필요할 때만 '뉴런'이 반응하는 구조를 갖고 있어서, 기존 AI보다 훨씬 더 에너지 효율적이고 속도도 빠른 게 특징입니다. 특히 놀라운 건, 이 모델이 NVIDIA와 같은 미국산 GPU가 아니라 중국이 자체 개발한 MetaX C550 GPU에서만 학습되고 테스트됐다는 점이죠. 이 덕분에 중국은 외산 하드웨어에 의존하지 않고도 고급 AI 모델을 만들 수 있다는 가능성을 보여주고 있어요.
SpikingBrain은 두 가지 버전이 있어요. ‘7B’는 소형 모델로 빠르고 효율적인 처리를 위한 용도고, ‘76B’는 더 정교한 처리와 높은 정확도를 추구하는 대형 모델이에요. 더 흥미로운 건 이 두 모델이 사용한 학습 데이터가 기존 AI 시스템에서 사용하는 양의 2%도 되지 않는 수준이라는 점이에요. 약 1500억 개의 토큰만으로도 기존보다 더 나은 성능을 보여줬다는 건 정말 놀라운 일인 거죠.
작은 규모의 SpikingBrain-7B는 특히 긴 입력 데이터(프롬프트)를 처리할 때 탁월한 성능을 보여줬어요. 예를 들어, 4백만 개의 토큰을 입력했을 때 정통 트랜스포머 모델보다 최대 100배 빠르게 반응했고, 몇 주 동안 안정적으로 작동했어요. 여러 공인된 AI 성능 테스트(MMLU, ARC-C 등)에서도 이 모델은 기준선의 약 90%를 회복하며 효율성과 성능 사이의 균형을 잘 잡은 모습이었답니다.
반면, 더 큰 SpikingBrain-76B는 연산 성능이 더 높은 ‘전문가 혼합(MoE)’ 구조를 채택해 복잡성을 더했지만, 대신 Llama2, Gemma2, Mixtral 같은 국제적 모델과 어깨를 나란히 하거나 때론 앞서는 결과도 보여줬어요.
연구진은 자체 연산자 라이브러리를 개발하고, 병렬 처리 구조도 맞춤화하면서 완전한 독립 실행 환경을 구축했죠. 하드웨어 선택권이 늘어나고 있다는 점에서 기술 주권 측면에서도 한 걸음 나아간 사례예요.
일반 사용자도 체험해볼 수 있도록 작은 모델 버전인 SpikingBrain-7B는 오픈 소스로 공개됐고, 76B는 ‘Shunxi’라는 웹 데모를 통해 제한적으로 체험할 수 있어요. 링크는 논문에서만 확인할 수 있지만요.
SpikingBrain의 등장이 의미하는 건 세 가지예요. 첫째, 데이터와 연산량이 많다고 해서 AI 성능이 무조건 좋아지지는 않는다는 점. 둘째, 하드웨어에서도 선택의 폭이 넓어지고 있다는 점. 셋째, AI 시장의 기술 경쟁이 이제 더 많은 나라와 플랫폼 중심으로 확산되고 있다는 거예요.