五月丁香六月综合在线观看,91国在线国内在线播放,麻豆国产在线视频区,国产二区三区

      <object id="iqmuo"></object>
    1. <object id="iqmuo"></object>
    2. 我國(guó)科研人員研發(fā)出類腦脈沖大模型
      2025-09-08 19:15:00 來(lái)源:央視新聞

      記者今天(9月8日)從中國(guó)科學(xué)院自動(dòng)化研究所獲悉,近日,該研究所李國(guó)齊、徐波團(tuán)隊(duì)與相關(guān)單位合作,成功研發(fā)出類腦脈沖大模型“瞬悉1.0”(SpikingBrain-1.0)。

      △類腦脈沖大模型“瞬悉1.0”界面

      該模型基于團(tuán)隊(duì)原創(chuàng)的“內(nèi)生復(fù)雜性”理論構(gòu)建,在國(guó)產(chǎn)GPU平臺(tái)上完成了全流程訓(xùn)練與推理,顯著提升了大模型高效處理極長(zhǎng)文本或數(shù)據(jù)序列的效率和速度,展示了構(gòu)建國(guó)產(chǎn)自主可控的新型(非Transformer)大模型架構(gòu)生態(tài)的可行性。

      當(dāng)前主流的Transformer模型,在處理超長(zhǎng)文章或?qū)υ挄r(shí)速度會(huì)非常慢且成本極高,造成了巨大的資源消耗??梢哉f(shuō),當(dāng)前大模型的飛速發(fā)展,背后是由巨大的資源消耗驅(qū)動(dòng)的。因此,亟須發(fā)展一條低功耗高效率的新型大模型路線。

      與當(dāng)前主流大模型架構(gòu)(Transformer架構(gòu))不同,“瞬悉1.0”借鑒大腦神經(jīng)元內(nèi)部工作機(jī)制,清晰地展示了一條不斷提升模型復(fù)雜度和性能的新型可行路徑。該模型僅需約主流模型2%的數(shù)據(jù)量,就能在多項(xiàng)語(yǔ)言理解和推理任務(wù)中達(dá)到媲美眾多主流模型的性能。

      這是我國(guó)首次提出大規(guī)模類腦線性基礎(chǔ)模型架構(gòu),并首次在國(guó)產(chǎn)GPU算力集群上構(gòu)建類腦脈沖大模型的訓(xùn)練和推理框架。其超長(zhǎng)序列處理能力在法律與醫(yī)學(xué)文檔分析、復(fù)雜多智能體模擬、高能粒子物理實(shí)驗(yàn)、DNA序列分析、分子動(dòng)力學(xué)軌跡等超長(zhǎng)序列任務(wù)建模場(chǎng)景中具有顯著的潛在效率優(yōu)勢(shì)。本次發(fā)布的大模型為新一代人工智能發(fā)展提供了非Transformer架構(gòu)的新技術(shù)路線,并將啟迪更低功耗的下一代神經(jīng)形態(tài)計(jì)算理論和芯片設(shè)計(jì)。

      (總臺(tái)央視記者 帥俊全 褚爾嘉)

      • 為你推薦
      • 公益播報(bào)
      • 公益匯
      • 進(jìn)社區(qū)

      熱點(diǎn)推薦

      即時(shí)新聞

      武漢