必讀視頻專題飛象趣談光通信人工智能低空經(jīng)濟5G手機智能汽車智慧城市會展特約記者

昇騰原生支持,科學(xué)多模態(tài)大模型Intern-S1-Pro正式發(fā)布并開源

2026年2月6日 11:26CCTIME飛象網(wǎng)

2026年2月4日,上海人工智能實驗室開源基于“通專融合”技術(shù)架構(gòu)SAGE打造的萬億參數(shù)科學(xué)多模態(tài)大模型Intern-S1-Pro,為AI4S從“工具革命”的1.0階段邁向以“革命的工具”驅(qū)動科學(xué)發(fā)現(xiàn)的2.0時代,提供了創(chuàng)新的系統(tǒng)性開源基座。昇騰AI基礎(chǔ)軟硬件為該模型的訓(xùn)練和推理提供了全流程支持。

作為當(dāng)前全球開源社區(qū)中參數(shù)規(guī)模最大的科學(xué)多模態(tài)模型,Intern-S1-Pro的核心科學(xué)能力實現(xiàn)了質(zhì)的躍升,高難度綜合學(xué)科評測穩(wěn)居AI4S領(lǐng)域國際領(lǐng)先水平,復(fù)雜數(shù)理邏輯推理能力達奧賽金牌水平,面向真實科研流程的智能體能力位居開源模型第一梯隊。Intern-S1-Pro旨在降低全球科研門檻,與學(xué)術(shù)界和產(chǎn)業(yè)界共同推動以通用人工智能驅(qū)動科學(xué)發(fā)現(xiàn)的范式革命。

此次發(fā)布的Intern-S1-Pro是通過SAGE實現(xiàn)“可深度專業(yè)化通用模型”的關(guān)鍵實踐。該模型基于混合專家架構(gòu)(MoE),共擁有512個專家,總參數(shù)達1T,每次調(diào)用僅激活8個專家、22B參數(shù)。其通用能力和科學(xué)能力協(xié)同演進,并在底層架構(gòu)實現(xiàn)了兩大核心突破:在SAGE的基礎(chǔ)模型層,通過引入傅里葉位置編碼并重構(gòu)時序編碼器,賦予模型統(tǒng)一理解從微觀生命信號到宏觀宇宙波動的“物理直覺”;通過高效路由機制,系統(tǒng)攻克了訓(xùn)練萬億參數(shù)MoE模型在穩(wěn)定性與算力效率上的瓶頸,為超大規(guī)模模型的訓(xùn)練提供了關(guān)鍵的工程基礎(chǔ)。

Intern-S1-Pro開發(fā)團隊依托產(chǎn)品日益成熟、生態(tài)持續(xù)完善的昇騰算力平臺,與昇騰AI生態(tài)深度適配,基于自主創(chuàng)新的訓(xùn)練與推理框架,為構(gòu)建開放共享的AGI4S基礎(chǔ)設(shè)施奠定了堅實底座。該底座完整支撐了從模型訓(xùn)練、推理到自動化評測的全流程閉環(huán),構(gòu)筑了從原創(chuàng)模型架構(gòu)到自主創(chuàng)新算力基座的完整技術(shù)鏈路,充分展現(xiàn)了昇騰AI生態(tài)在支撐高精度、高性能、強穩(wěn)定、低成本超大規(guī)模AGI4S前沿模型上已非常成熟可靠。這為前沿模型的持續(xù)高效迭代與快速成熟鋪平了道路,將有力支撐其更廣泛的應(yīng)用部署。

目前,昇騰A3超節(jié)點產(chǎn)品已能全面滿足Intern-S1-Pro在萬億級MoE架構(gòu)下的訓(xùn)練與推理需求;谏疃冗m配的XTuner框架,系統(tǒng)在FSDP2的基礎(chǔ)上,進一步支持了Intra-Node Domino-EP的雙batch間計算通信掩蓋、swap activation/optimization等內(nèi)存優(yōu)化特性,使昇騰A3超節(jié)點在萬億MoE模型訓(xùn)練場景下仍能夠?qū)崿F(xiàn)較高的吞吐性能。同時,LMDeploy與vLLM Ascend已支持Intern-S1-Pro的多機推理部署,并通過動態(tài)量化、ACL Graph等特性進一步釋放推理性能潛力。

昇騰一直致力于構(gòu)建開放的AI技術(shù)生態(tài),積極參與AtomGit AI社區(qū)、魔樂社區(qū)、Gitee AI社區(qū)、啟智社區(qū)等生態(tài)社區(qū)的共建,讓開發(fā)者能夠快速獲取昇騰適配的模型、算法、工具等能力和源碼。此次Intern-S1-Pro模型一經(jīng)發(fā)布開源,即同步上線AtomgGit AI社區(qū)和魔樂社區(qū),歡迎開發(fā)者們下載。

在線體驗鏈接:

https://chat.intern-ai.org.cn/

AtomGit AI鏈接:

https://ai.gitcode.com/InternLM/Intern-S1-Pro

魔樂社區(qū)鏈接:

https://modelers.cn/models/Intern/Intern-S1-Pro

GitHub鏈接:

https://github.com/InternLM/Intern-S1

HuggingFace鏈接:

https://huggingface.co/internlm/Intern-S1-Pro

ModelScope鏈接:

https://www.modelscope.cn/models/Shanghai_AI_Laboratory/Intern-S1-Pro

創(chuàng)新底層架構(gòu)突破萬億參數(shù)科學(xué)模型邊界

Intern-S1-Pro通過多項SAGE基礎(chǔ)模型層的技術(shù)創(chuàng)新,拓寬了模型應(yīng)用邊界、提升了超大規(guī)模訓(xùn)練可行性,推進了可深度專業(yè)化通用模型的探索。

為構(gòu)建能更深層次理解物理世界規(guī)律的科學(xué)大模型,研究團隊引入了傅里葉位置編碼(FoPE)并重構(gòu)時序編碼器。FoPE為AI賦予雙重視角:既能像看“粒子”一樣捕捉文字之間的相對距離,又能像分析“波”一樣把握科學(xué)信號的整體規(guī)律與頻率?茖W(xué)數(shù)據(jù)與語言的差異還體現(xiàn)在多尺度上,基于能自動適應(yīng)數(shù)據(jù)密度的時序編碼器,模型首次能統(tǒng)一處理從寥寥數(shù)個到百萬級采樣的各類信號,支持的分析對象從天文、地理直接拓展至生理信號、生物聲學(xué)等領(lǐng)域,從而實現(xiàn)感知能力的重大躍遷。

為了高效訓(xùn)練承載這些能力的萬億參數(shù)超大規(guī)模模型,研究團隊革新了其內(nèi)部的“路由機制”。傳統(tǒng)方法存在訓(xùn)練低效和算力浪費兩大痛點。新技術(shù)通過“路由稠密估計”,讓模型在高效運行的同時能進行更充分的學(xué)習(xí),提升了穩(wěn)定性;進而通過“分組路由”策略,像智能交通系統(tǒng)一樣使海量計算芯片實現(xiàn)負載均衡,避免了資源閑置,能更加充分地利用昇騰超節(jié)點的通信帶寬,釋放NPU的強勁算力。通過算法與系統(tǒng)的協(xié)同創(chuàng)新,同時攻克了超大規(guī)模模型訓(xùn)練在“學(xué)習(xí)效率”和“資源調(diào)度”上的核心瓶頸,為高效、穩(wěn)健地訓(xùn)練下一代萬億參數(shù)模型提供了關(guān)鍵基礎(chǔ)。

通過上述底層架構(gòu)的創(chuàng)新,Intern-S1-Pro不僅在規(guī)模上刷新了科學(xué)多模態(tài)模型的參數(shù)規(guī)模上限,也為SAGE架構(gòu)所提出的“通用能力與專業(yè)能力協(xié)同演進”提供了可落地的實現(xiàn)路徑。

科學(xué)能力再進化通用能力協(xié)同演進

得益于創(chuàng)新的底層架構(gòu)設(shè)計與萬億參數(shù)超大規(guī)模訓(xùn)練策略,Intern-S1-Pro的科學(xué)能力進一步升級。

在AI4S關(guān)鍵垂類領(lǐng)域,Intern-S1-Pro成功構(gòu)建了一個跨越化學(xué)、材料、生命、地球、物理五大核心學(xué)科的全譜系能力矩陣,涵蓋100多個專業(yè)子任務(wù),不僅在Mol-Instruction、Biology-Instruction等單學(xué)科垂類評測中表現(xiàn)優(yōu)異,更在SciReasoner、SFE等高難度的綜合學(xué)科評測基準(zhǔn)中,取得了與閉源商業(yè)大模型及垂類SOTA模型相當(dāng),甚至更優(yōu)的成績,穩(wěn)居AI4S領(lǐng)域的第一梯隊,展現(xiàn)出從“解題”邁向“解決問題”的科研生產(chǎn)力價值,為前沿科學(xué)探索提供了堅實支撐。在國際數(shù)學(xué)奧林匹克IMO-Answer-Bench和國際物理奧林匹克IPHO2025兩大權(quán)威基準(zhǔn)測試中,Intern-S1-Pro均達到國際頂尖水平,展現(xiàn)出競賽級別的解題能力。

同時,借助通專融合技術(shù)路線,Intern-S1-Pro實現(xiàn)了多模態(tài)與文本通用能力的均衡發(fā)展,在通用能力與專業(yè)科學(xué)能力上協(xié)同進階:在圖文跨模態(tài)理解、科學(xué)圖表邏輯推理、多場景視覺感知,以及高質(zhì)量自然語言生成和復(fù)雜指令精準(zhǔn)遵循等核心維度,Intern-S1、Intern-S1-Pro均穩(wěn)居開源模型陣營第一梯隊,展現(xiàn)出扎實而全面的綜合實力,為科研場景下復(fù)雜問題的理解、推理與應(yīng)用提供了可靠支撐。

在智能體能力方面,Intern-S1-Pro實現(xiàn)了從“靜態(tài)任務(wù)規(guī)劃”到“動態(tài)環(huán)境交互”的跨越式進階。在以動態(tài)環(huán)境與復(fù)雜交互為核心的Tau-2評測中達到了國際一流水平,為賦能復(fù)雜科學(xué)智能體打下了堅實基礎(chǔ)。

筑牢“算力-算法”一體化基座

在規(guī)模、性能提升的同時,Intern-S1-Pro構(gòu)建了原創(chuàng)的“算力—算法”一體化基座。模型從架構(gòu)設(shè)計之初,便與昇騰AI生態(tài)確立聯(lián)合研發(fā)路線,實現(xiàn)了從最底層的算子、編譯優(yōu)化到上層的訓(xùn)練、推理框架的深度適配。通過聯(lián)合攻關(guān),攻克了大規(guī)模訓(xùn)練中精度對齊、超長序列強化學(xué)習(xí)穩(wěn)定性、硬件性能極致釋放等一系列核心技術(shù)難題,基于XTunerV1訓(xùn)練框架的精細優(yōu)化與LMDeploy推理引擎的高效部署,結(jié)合先進的內(nèi)存管理與并行策略,確保了萬億參數(shù)模型訓(xùn)練的高效與穩(wěn)定。通過創(chuàng)新的全異步強化學(xué)習(xí)框架等技術(shù)的應(yīng)用,大幅提升了訓(xùn)練效率,降低了研發(fā)成本與門檻,為開放共享、面向未來的AGI4S基礎(chǔ)設(shè)施奠定了堅實基礎(chǔ)。

高質(zhì)量開源賦能創(chuàng)新生態(tài)

自發(fā)布以來,Intern-S1多次登頂HuggingFace全球多模態(tài)榜單,累計下載超41萬次,并獲得近200 家科研機構(gòu)和企業(yè)的合作申請。其卓越的跨模態(tài)科學(xué)理解能力不僅為科研提供了高效工具,也通過開源降低了全球科研團隊邁入AGI for Science的門檻。未來,在研究范式創(chuàng)新及模型能力提升的基礎(chǔ)上,上海AI實驗室將推進Intern-S1及其全鏈條工具體系持續(xù)開源,支持免費商用,同時提供線上開放服務(wù),與全球合作伙伴共建更加開放、高效的科學(xué)AI生態(tài)。

編 輯:T01
飛象網(wǎng)版權(quán)及免責(zé)聲明:
1.本網(wǎng)刊載內(nèi)容,凡注明來源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權(quán)所有,未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對于經(jīng)過授權(quán)可以轉(zhuǎn)載,請必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標(biāo)注作者信息和飛象網(wǎng)來源。
2.凡注明“來源:XXXX”的作品,均轉(zhuǎn)載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責(zé)。
3.如因作品內(nèi)容、版權(quán)和其它問題,請在相關(guān)作品刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將第一時間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進行的“內(nèi)容核實”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權(quán)。
推薦閱讀

精彩視頻

精彩專題

關(guān)于我們廣告報價聯(lián)系我們隱私聲明本站地圖

CCTIME飛象網(wǎng) CopyRight © 2007-2025 By CCTIME.COM

京ICP備08004280號-1 電信與信息服務(wù)業(yè)務(wù)經(jīng)營許可證080234號 京公網(wǎng)安備110105000771號

公司名稱: 北京飛象互動文化傳媒有限公司

未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像