中新社北京6月30日電 (記者 劉育英)華為6月30日正式宣布開源盤古70億參數(shù)的稠密模型、盤古Pro MoE 720億參數(shù)的混合專家模型和基于昇騰的模型推理技術(shù)。這是華為首次開源大模型。
目前,盤古Pro MoE 72B模型權(quán)重、基礎(chǔ)推理代碼,已正式上線開源平臺?;跁N騰的超大規(guī)模MoE模型推理代碼,也已正式上線開源平臺。盤古7B相關(guān)模型權(quán)重與推理代碼將于近期上線開源平臺。華為邀全球開發(fā)者、企業(yè)伙伴及研究人員下載使用。
華為表示,此舉是華為踐行昇騰生態(tài)戰(zhàn)略的又一關(guān)鍵舉措,推動大模型技術(shù)的研究與創(chuàng)新發(fā)展,加速推進人工智能在千行百業(yè)的應(yīng)用與價值創(chuàng)造。
達睿咨詢創(chuàng)始人馬繼華介紹,盤古70億參數(shù)的稠密模型是全參數(shù)稠密結(jié)構(gòu),適合通用場景微調(diào),能夠靈活部署在邊緣設(shè)備上。盤古Pro MoE 72B模型,采用混合專家架構(gòu),在保持推理效率的同時實現(xiàn)接近千億級稠密模型的性能,比較適合高復(fù)雜度任務(wù)。華為差異化模型參數(shù)規(guī)模梯度覆蓋制造業(yè)、金融等不同場景需求,開源目的是推動大模型的行業(yè)應(yīng)用落地。
馬繼華認(rèn)為,目前來看,人工智能領(lǐng)域的技術(shù)開放與生態(tài)共建非常重要,通過開源能夠迅速形成產(chǎn)業(yè)優(yōu)勢,從而達成領(lǐng)跑,讓人工智能飛輪效應(yīng)得以發(fā)揮。(完)
版權(quán)聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關(guān)法律責(zé)任。