中 AI 스타트업 75만 단어 대형모델 발표...챗GPT4의 30배

[베이징=뉴스핌] 조용성 특파원 = 지난 1월 딥시크가 전 세계에 충격을 준 데 이어 중국 AI 스타트업인 미니맥스(MiniMax)가 발표한 대형 언어 모델(LLM)이 또 한 번 세계를 놀라게 했다.
상하이에 위치한 미니맥스는 지난 17일 자체 개발한 미니맥스 M1 시리즈를 발표했다. 이 모델은 딥시크를 뛰어넘는 성능을 갖춘 것으로 평가받으면서 전 세계적인 호평을 받고 있다고 중국 시나닷컴이 19일 전했다.
미니맥스 M1의 가장 큰 특징은 100만 토큰에 해당하는 답을 낼 수 있다는 것이다. 100만 토큰은 약 75만 단어에 해당한다. 이는 사용자의 질문에 최대 75만 단어 분량의 답을 제공할 수 있음을 의미한다.
오픈AI의 챗GPT-4는 현재 3만2768토큰을 처리할 수 있다. 이는 약 2만5000단어에 해당한다. 미니맥스 M1은 챗GPT-4에 비해 30배 긴 대답을 제공할 수 있는 셈이다.
가장 긴 텍스트를 대답으로 제공할 수 있으면서도 강화 학습 훈련에 소요된 비용은 53만 달러에 불과했다. 오픈AI의 챗GPT-4는 강화 학습 훈련에 1억 달러 이상이 소요된 것으로 전해지고 있다. 때문에 미니맥스가 대형 모델로서 놀랄 만한 비용 절감을 이뤄냈다는 평가를 받고 있다.
연산효율화를 이뤄낸 점도 강점이다. 미니맥스가 자체 개발한 하이브리드 아키텍처는 수십만 토큰 수준의 추론 길이도 효율적으로 처리할 수 있도록 최적화됐다. 미니맥스 M1이 8만 토큰 분량의 심층 추론을 수행할 때 필요로 하는 컴퓨팅 능력은 딥시크 R1의 30%에 불과하며, 10만 토큰을 생성할 때 필요로 하는 컴퓨팅 능력은 R1의 25%에 그쳤다.
성능 면에서 미니맥스 M1은 17개 주요 평가지표에서 소프트웨어 공학, 장문 텍스트 이해 등 복잡한 상황에서 특히 두드러진 장점을 가지고 있는 것으로 나타났다. 코딩 능력에서는 다른 오픈 소스 모델을 제치고 1위를 차지했다.
미니맥스는 M1에 대해 '세계 최초의 대규모 오픈 소스 하이브리드 아키텍처 추론 모델'이라고 자체 평가했다. M1의 아키텍처는 오픈 소스로 공개됐다.
중국의 IT 블로거들은 "미니맥스 M1의 성능은 딥시크 R1에 맞먹으면서도 처리 텍스트는 압도적으로 길다", "중국이 또 한 번 실리콘밸리를 놀라게 했다"는 평가를 내놓고 있다.
미니맥스는 M1 모델을 무제한 무료로 제공할 것이라고 발표했다.
![]() |
미니맥스 기업 이미지 [사진=미니맥스] |