1月15日,解决架构记忆“AI六小虎”之一的传统MiniMax發布並開源了新一代01係列模型,包含基礎語言大模型MiniMax-Text-01和視覺多模態大模型MiniMax-VL-01。瓶颈該係列模型使用多項突破性創新,布新以大規模應用線性注意力機製打破了Transformer傳統架構的代模記憶瓶頸。
未來,解决架构记忆AI智能體有望成為最重要的传统產品形態,由於智能體處理的瓶颈任務變得越來越複雜,涉及的布新數據量也越來越大,單個智能體的代模記憶以及多個智能體協作間的上下文都會變得越來越長。因此,解决架构记忆長上下文能力與多模態處理能力的传统提升至關重要。
技術上,瓶颈MiniMax-01係列模型首次將線性注意力機製擴展到商用模型的布新級別,受益於此次架構創新,代模該係列模型在處理長輸入的時候具有非常高的效率,接近線性複雜度。從規模效應、結構設計、訓練優化和推理優化等層麵綜合考慮,MiniMax選擇模型參數量為4560億,其中每次激活459億,能夠高效處理400萬token的上下文,將有效替代Transformer傳統架構並開啟超長文本輸入時代。相較於Gemini等一眾全球頂級模型,MiniMax-01隨著輸入長度變長,性能衰減最慢。
值得注意的是,MiniMax還開源了Text-01模型、VL-01模型的完整權重,以便於更多開發者做有價值、突破性的研究。MiniMax方麵表示,“我們認為這有可能啟發更多長上下文的研究和應用,從而更快促進Agent時代的到來,二是開源也能促使我們努力做更多創新,更高質量地開展後續的模型研發工作。”