OpenAI 等基于大量工程實驗和反復驗 證提出縮放定律,揭示了模型能力與計算能力、參數量和數據量間 的定量關系,業界也遵循該定律指導資源要素投入、推動模型創新 發展,近年來在模型技術能力、通用泛化水平等方面取得一系列突 破性進展。目前,大模型支持模態已逐步從自然語言處理拓展到多 模態理解和生成等場景。
從 2023 年至今的基準測試結果來看,全球大模型能力已經出現 階躍式提升。語言大模型能力提升主要體現為以下四方面。
一是上下文窗口長度擴展,提升全局能力。大模型的上下文窗口長度是指 模型在執行文本生成任務時,能夠處理的前置文本的數量或長度, 決定了模型對信息的理解深度和廣度,對于理解和生成連貫、一致 且準確的文本具有重要意義。當前,國內外主流大語言模型均具備 128k 以上的上下文長度處理能力,可一次性處理數十萬單詞或漢字。
二是知識密度增強,儲存更多知識。隨著數據、算力、算法協同發 展,大模型知識密度持續增強,平均每 8 個月翻一番。2020 年 6 月 發布的 GPT-3 大模型有 1750 億個參數,2024 年 2 月面壁智能發布 MiniCPM-2.4B 模型在實現同等性能的同時,參數規模降至 24 億, 相當于知識密度提高了約 86 倍。
三是 MoE 混合專家架構能夠容納更多知識,精準刻畫任務。MoE 稀疏激活多個專家子模型支路,加權 融合多個子模型結果,實現更加準確的輸出,提高推理計算效率。 目前,谷歌的 Gemini-1.5 Pro、Mistral AI 的 8x7B 與 8x22B、阿里云 Qwen-1.5 MoE、階躍星辰 Step-2 等頭部大模型均采用 MoE 架構, 已 成 為 當 前 大 模 型 的 重 要 演 進 趨 勢 。
四 是通過強化學習 (Reinforcement Learning,RL)將思維鏈(Chain of Thought,CoT) 內化進模型,提升復雜推理能力。2024 年 9 月 OpenAI 發布的 o1 系 列模型在后訓練(Post-Training)階段采用強化學習和思維鏈的技術方案,不僅在“慢思考”后回答復雜問題的表現優異(尤其是在 STEM 領域的推理能力顯著增強),還具有了自我反思與錯誤修正能力, 使自博弈強化學習有望成為提升語言大模型邏輯推理能力的技術新范式。
機器人底盤 Disinfection Robot 消毒機器人 講解機器人 迎賓機器人 移動機器人底盤 商用機器人 智能垃圾站 智能服務機器人 大屏機器人 霧化消毒機器人 紫外線消毒機器人 消毒機器人價格 展廳機器人 服務機器人底盤 核酸采樣機器人 智能配送機器人 導覽機器人 |