电竞比分网-中国电竞赛事及体育赛事平台

關于ZAKER 合作
每日新聞摘錄 10小時前

重磅開源 ! 全球首個開源大規(guī)?;旌霞軜嫷耐评砟P?MiniMax-M1 發(fā)布

來源:環(huán)球網(wǎng)

在人工智能競賽進入 " 下半場 " 的今天,模型性能的比拼已不再是唯一焦點,高效、低成本、強推理能力正成為定義下一代 AI 核心競爭力的關鍵。6 月 17 日凌晨,總部位于上海的 AI 獨角獸企業(yè) MiniMax 突然向開源社區(qū)投下一枚重磅炸彈,正式發(fā)布其自主研發(fā)的 MiniMax-M1 系列模型。

M1 被定義為 " 全球首個開源的大規(guī)?;旌霞軜嬐评砟P?",它不僅在多個核心生產(chǎn)力場景中展現(xiàn)出比肩甚至超越業(yè)界頂尖模型的實力,更以驚人的成本效益和技術創(chuàng)新,為 AI 的規(guī)?;瘧煤臀磥戆l(fā)展路徑提供了全新的想象空間。

技術報告顯示,M1 模型在處理百萬級 Token 的長文本上實現(xiàn)了重大突破,成為上下文最長的推理模型;其 RL(強化訓練)成本下降一個量級,成本僅 53 萬美金,推理效率則數(shù)倍于競爭對手;在工具使用場景(TAU-bench)中 MiniMax-M1-40k 同樣領跑所有開源權重模型,超過 Gemini-2.5 Pro。毫無疑問,MiniMax-M1 已經(jīng)成為 Agent 時代的首選開源基座模型。

(開源技術報告截圖)

市場影響:重塑性價比,倒逼行業(yè) " 真開源 "

" 性能比肩 DeepSeek-R1,性價比新王 "、" 又一次卷到硅谷了 " …… M1 發(fā)布后,技術社區(qū)和行業(yè)觀察者迅速給出高度評價。除了關注模型參數(shù)以及長文本 SOTA 等技術指標,更有夸贊 M1 帶來的極致性價比。

(MiniMax-01 模型發(fā)布快速引起海外 X、Huggingface 等業(yè)內(nèi)人士關注)

MiniMax 不僅開源了模型權重,還以極具競爭力的價格提供了 API 服務。其定價策略清晰地體現(xiàn)了其成本優(yōu)勢:

0-32k Token:輸入 0.8 元 / 百萬 Token,輸出 8 元 / 百萬 Token

32k-128k Token:輸入 1.2 元 / 百萬 Token,輸出 16 元 / 百萬 Token

128k-1M Token:輸入 2.4 元 / 百萬 Token,輸出 24 元 / 百萬 Token

前兩個檔位的定價均低于 DeepSeek-R1,而第三個超長文本檔位則是 DeepSeek 模型目前尚未覆蓋的領域。此外,MiniMax 宣布,在其自有的 App 和 Web 端,M1 模型將保持不限量免費使用,這無疑將極大地推動其技術的普及和應用。

性能實測:生產(chǎn)力場景的 " 開源新王 "

性能上,MiniMax 在業(yè)內(nèi)公認的 17 個主流評測集上對 M1 進行了全面 " 大考 ",結果顯示,M1 在軟件工程、長文本理解和工具使用等面向生產(chǎn)力的復雜場景中,優(yōu)勢尤為突出。

代碼能力(SWE-bench):M1-40k 和 M1-80k 版本分別取得了 55.6% 和 56.0% 的優(yōu)異成績,顯著超越其他所有開源模型,穩(wěn)居第一梯隊。

長文本(MRCR):依托百萬級上下文窗口,M1 系列在此項任務中表現(xiàn)驚艷,不僅全面超越了所有開源對手,甚至擊敗了 OpenAI 的 GPT-4o 和 Anthropic 的 Claude 3 Opus,在全球范圍內(nèi)僅以微弱差距落后于谷歌的 Gemini 2.5 Pro,位列全球第二。

工具調(diào)用(TAU-bench):在模擬真實世界工具調(diào)用的復雜場景中,M1-40k 模型再次領跑所有開源模型,其實力甚至超越了閉源的 Gemini-2.5 Pro,展現(xiàn)了其作為 AI 智能體基座模型的巨大潛力。

值得注意的是,在絕大多數(shù)基準測試中,擁有更長推理能力的 M1-80k 版本始終優(yōu)于 M1-40k,這充分證明了其架構在擴展計算資源時的有效性和可塑性。

技術突破:線性注意力混合構架與 CISPO 算法

MiniMax-M1 的卓越性能,根植于其獨特的架構設計和算法創(chuàng)新。其中,兩大核心技術——線性注意力機制(Lightning Attention)混合構架和更快的強化學習算法 CISPO,構成了其高效能、低成本的基石。

線性注意力機制混合構架:業(yè)內(nèi)最高的 100 萬上下文的輸入

長文本處理能力是衡量現(xiàn)代大模型先進性的 " 試金石 "。M1 模型原生支持高達 100 萬 Token 的上下文窗口,這一數(shù)字與谷歌最新的 Gemini 2.5 Pro 持平,是國內(nèi)另一開源強手 DeepSeek R1(12.8 萬 Token)的近 8 倍。同時,它還支持業(yè)內(nèi)最長的 8 萬 Token 推理輸出,為處理復雜文檔分析、長篇代碼生成等任務提供了前所未有的可能性。

實現(xiàn)這一突破的關鍵,在于 MiniMax 獨創(chuàng)的 Lightning Attention 混合構架。傳統(tǒng) Transformer 模型在處理長序列時,注意力機制的計算量會隨序列長度呈平方級增長,成為制約性能和成本的主要瓶頸。M1 的混合架構,特別是注意力機制,能夠顯著優(yōu)化長下文輸入的計算效率。

報告提到,在進行 8 萬 Token 的深度推理時,M1 所需的算力僅為 DeepSeek R1 的約 30%;生成 10 萬 token 時,推理算力只需要 DeepSeek R1 的 25%。這種極致的效率提升,直接轉化為訓練和推理階段巨大的成本優(yōu)勢。

CISPO 算法:強化訓練成本僅 53.5 萬美金

MiniMax 此次提出的 CISPO 算法,另辟蹊徑,通過裁剪重要性采樣權重,而非傳統(tǒng)算法中調(diào)整 Token 的更新方式,來提升強化學習的效率和穩(wěn)定性。實驗數(shù)據(jù)顯示,在 AIME(AI-powered Moral Evaluator)等測試中,CISPO 的收斂性能比字節(jié)跳動近期提出的 DAPO 算法快一倍,也顯著優(yōu)于 DeepSeek 早期使用的 GRPO 算法。

更快的收斂意味著更少的訓練時間和資源消耗。得益于 CISPO 的高效,M1 模型的整個強化學習階段僅使用了 512 塊英偉達 H800 GPU,耗時三周,成本僅為 53.5 萬美元。MiniMax 官方表示,這一成本 " 比最初的預期少了一個數(shù)量級 ",展示了其技術路線在成本控制上的巨大潛力。

(在 AIME 2024 測試集上,CISPO 的性能同比優(yōu)于 GRPO 和 DAPO)

分析人士認為,MiniMax 此舉將對國內(nèi)乃至全球的 AI 大模型市場產(chǎn)生深遠影響。它不僅為開發(fā)者和企業(yè)提供了一個高性能、低門檻的新選擇,也用事實證明了通過技術創(chuàng)新可以有效打破 " 算力 - 資本 " 的壁壘。這種 " 卷成本、卷效率 " 的競爭模式,將倒逼更多模型廠商走向真正的技術驅(qū)動和價值創(chuàng)造,而非停留在參數(shù)和估值的虛假繁榮中。

開放與未來:一場為期五天的 " 技術風暴 "

MiniMax 的雄心不止于發(fā)布一個模型。官方表示,完整的 M1 模型權重、技術報告均已在 Hugging Face 和 GitHub 上開放獲取。同時,公司正積極與國家超算平臺、vLLM 等業(yè)界主流開源框架合作,以確保開發(fā)者能夠輕松、高效地部署和使用 M1 模型。

更令人期待的是,M1 的發(fā)布僅僅是 MiniMax" 開源周 " 的序幕。在接下來的四個工作日里,MiniMax 計劃每天發(fā)布一項新的技術或產(chǎn)品更新,持續(xù)為 AI 社區(qū)帶來驚喜。

相關閱讀

最新評論

沒有更多評論了

覺得文章不錯,微信掃描分享好友

掃碼分享

熱門推薦

查看更多內(nèi)容

企業(yè)資訊

查看更多內(nèi)容