• 正文
    • 01.基礎(chǔ)模型GLM-4-32B:強化代碼能力,擅長動畫繪制、網(wǎng)頁設(shè)計、SVG生成
    • 02.推理模型GLM-Z1-32B:部分性能比肩671B DeepSeek-R1,極速版快至200 Tokens/s
    • 03.沉思模型GLM-Z1-Rumination:AI中的“博士生”,自主完成復(fù)雜研究任務(wù)
    • 04.結(jié)語:推理模型迎來開源盛世
  • 相關(guān)推薦
申請入駐 產(chǎn)業(yè)圖譜

“大模型六小虎”首個IPO,來了!

04/15 15:50
506
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

作者 | ?ZeR0

編輯 | ?漠影

剛剛開源32B推理模型,比肩滿血版DeepSeek R1,API定價低至1/30。

智東西4月15日報道,“大模型六小虎”的第一個IPO來了!中國證監(jiān)局官網(wǎng)顯示,大模型獨角獸北京智譜華章科技股份有限公司(簡稱“智譜”)已在北京證監(jiān)局辦理輔導(dǎo)備案,輔導(dǎo)機構(gòu)為中國國際金融股份有限公司。

智譜成立于2019年6月,注冊資本為3622萬元,法定代表人是其董事長劉德兵,無控股股東,實際控制人為唐杰、劉德兵。清華大學(xué)計算機系教授是智譜的創(chuàng)始人和靈魂人物,擔(dān)任智譜首席科學(xué)家。唐杰直接持股7.4081%,劉德兵直接持股0.2554%,兩人通過持股平臺合計控制智譜17.3966%表決權(quán),通過一致行動人合計持有智譜12.1600%表決權(quán),綜上合計控制智譜36.9647%表決權(quán)。今日,智譜剛剛發(fā)布新一代開源模型GLM-4-32B-0414系列,包含基座(Chat)、推理、沉思模型權(quán)重,有9B和32B兩個尺寸,并遵循寬松的MIT License,完全開源,不限制商用,無需申請。

開源地址:github.com/THUDM/GLM-4/其中,GLM-Z1-32B-0414推理模型以320億個參數(shù),在部分任務(wù)的性能表現(xiàn)上,可媲美參數(shù)高達(dá)6710億的DeepSeek-V3/R1。

同時,智譜啟用全新域名“z.ai”。該平臺已集成基座、推理、沉思三類GLM模型,即日起面向全球用戶免費開放使用。z.ai將持續(xù)演進(jìn)為下一代的AI應(yīng)用平臺。

新版基座模型和推理模型已上線智譜MaaS平臺,提供API。本次上線的基礎(chǔ)模型有兩個版本,包括GLM-4-Air-250414和GLM-4-Flash-250414,前者定價0.5元/百萬tokens,后者完全免費。上線的推理模型有三個版本:1、GLM-Z1-Flash(免費版)完全免費,降低模型使用門檻。2、GLM-Z1-AirX(極速版):國內(nèi)最快推理模型,推理速度最高可達(dá)200tokens/s8倍于常規(guī)速度,定價5元/百萬tokens。

3、GLM-Z1-Air(高性價比版):定價0.5元/百萬tokens,僅為DeepSeek-R1輸出定價的1/30,適合高頻調(diào)用場景。相比之下,DeepSeek-R1目前在標(biāo)準(zhǔn)時段的輸出定價是16元/百萬tokens,輸入定價是4元/百萬tokens(緩存未命中)和1元/百萬tokens(緩存命中);在優(yōu)惠時段價格(北京時間00:30-08:30)的輸出定價是4元/百萬tokens,輸入定價是1元/百萬tokens(緩存未命中)和0.25元/百萬tokens(緩存命中)。

01.基礎(chǔ)模型GLM-4-32B:強化代碼能力,擅長動畫繪制、網(wǎng)頁設(shè)計、SVG生成

基礎(chǔ)模型GLM-4-32B-0414以320億個參數(shù),性能比肩更大參數(shù)量的國內(nèi)外主流模型。

GLM-4-32B-0414在工程代碼、Artifacts生成、函數(shù)調(diào)用、搜索問答及報告等基準(zhǔn)測試中取得了不錯的表現(xiàn),部分表現(xiàn)可媲美更大參數(shù)規(guī)模的GPT-4o、DeepSeek-V3-0324(671B)等模型。

該模型經(jīng)過了15T高質(zhì)量數(shù)據(jù)的預(yù)訓(xùn)練,其中包含大量推理類的合成數(shù)據(jù),為后續(xù)的強化學(xué)習(xí)擴展打下了基礎(chǔ)。在后訓(xùn)練階段,除了針對對話場景進(jìn)行了人類偏好對齊外,智譜還通過拒絕采樣和強化學(xué)習(xí)等技術(shù)強化了模型在指令遵循、工程代碼、函數(shù)調(diào)用方面的效果,旨在加強Agents(智能體)任務(wù)所需的原子能力。GLM-4-32B-0414還強化了代碼生成能力,可生成更復(fù)雜的單文件代碼。z.ai的對話模式內(nèi)建了預(yù)覽功能,支持對生成的HTML和SVG進(jìn)行可視化查看,便于用戶評估生成結(jié)果和進(jìn)行迭代優(yōu)化。在z.ai上已經(jīng)可以體驗這些功能,比如輸入“用HTML模擬太陽系的行星運動”的指令,你可以在頁面右側(cè)看到直觀的動態(tài)演示:

做個HTML彈珠打磚塊小游戲亦是不在話下,在頁面左側(cè)流暢地輸出400多行代碼和游戲簡介后,右側(cè)的小游戲就能上手開玩。

或者上點難度,要求包括:設(shè)計一個移動端機器學(xué)習(xí)平臺的UI,其中要包括訓(xùn)練任務(wù),存儲管理,和個人統(tǒng)計界面;個人統(tǒng)計界面要用圖表展示用戶過去一段時間的各類資源使用情況;使用Tailwind CSS來美化頁面,把這3個手機界面平鋪展示到一個HTML頁面中。最終,該模型輸出的成品審美在線:

你也可以讓GLM-4-32B-0414設(shè)計一個支持自定義函數(shù)繪制的繪圖板,可添加和刪除自定義函數(shù),并為函數(shù)指定顏色。

或是讓它用svg展示一個大語言模型的訓(xùn)練流程:

GitHub頁面還給出了模擬小球碰撞的動畫繪制示例:

02.推理模型GLM-Z1-32B:部分性能比肩671B DeepSeek-R1,極速版快至200 Tokens/s

GLM-Z1-32B-0414是一款具有深度思考能力的推理模型。它是在GLM-4-32B-0414的基礎(chǔ)上,采用冷啟動和擴展強化學(xué)習(xí)策略,并針對數(shù)學(xué)、代碼和邏輯等任務(wù)進(jìn)一步了深度優(yōu)化訓(xùn)練。相比基礎(chǔ)模型,GLM-Z1-32B-0414顯著提升了數(shù)理能力和解決復(fù)雜任務(wù)的能力。在訓(xùn)練過程中,智譜引入了基于對戰(zhàn)排序反饋的通用強化學(xué)習(xí),進(jìn)一步提升了模型的通用能力。GLM-Z1-32B-0414以320億個參數(shù),在部分任務(wù)的性能表現(xiàn)上,比肩參數(shù)量多達(dá)6710億的DeepSeek-R1相媲美。在AIME 24/25、LiveCodeBench、GPQA等基準(zhǔn)測試中,GLM-Z1-32B-0414展現(xiàn)了較強的數(shù)理推理能力,能夠應(yīng)對更廣泛的復(fù)雜任務(wù)。

沿用上述技術(shù),智譜訓(xùn)練了一個9B的小尺寸模型GLM-Z1-9B-0414。雖然參數(shù)量更少,GLM-Z1-9B-0414在數(shù)學(xué)推理及通用任務(wù)上依然表現(xiàn)出色,整體性能已躋身同尺寸開源模型的領(lǐng)先水平。

尤其是在資源受限的場景下,該模型可以很好地在效率與效果之間取得平衡,支持輕量化部署。智譜針對推理模型優(yōu)化了量化、投機采樣技術(shù),改進(jìn)了推理框架和調(diào)度平臺的性能,降低長思考對KV Cache顯存的壓力,可在不影響性能的情況下,實現(xiàn)更快的推理速度和更大并發(fā)量,GLM-Z1-AirX(極速版)的推理速度可達(dá)到200 token/s。在z.ai上可使用GLM-Z1-32B,體驗高效推理能力。推理模型不僅會輸出思維鏈,還能通過Artifacts功能生成可上下滑動瀏覽的可視化頁面。

03.沉思模型GLM-Z1-Rumination:AI中的“博士生”,自主完成復(fù)雜研究任務(wù)

沉思模型GLM-Z1-Rumination-32B-0414代表了GLM對通用人工智能(AGI)未來形態(tài)的下一步探索。不同于一般的深度思考模型,沉思模型通過更長時間的深度思考來解決更開放和更復(fù)雜的問題,還能在深度思考過程中結(jié)合搜索工具處理復(fù)雜任務(wù),并利用多種規(guī)則型獎勵來指導(dǎo)和擴展端到端強化學(xué)習(xí)訓(xùn)練。沉思模型支持「自主提出問題—搜索信息—構(gòu)建分析—完成任務(wù)」的完整流程。其技術(shù)底座源自強化學(xué)習(xí)擴展與端到端的深度研究(Deep Research)策略訓(xùn)練,具備博士級研究能力的潛力。沉思模型在研究型寫作復(fù)雜檢索任務(wù)上的能力得到了顯著提升,并能夠更好地應(yīng)對開放問題。z.ai上可免費體驗GLM-Z1-Rumination-0414,例如讓它分析北京、上海、杭州、深圳的AI發(fā)展對比情況,以及未來的發(fā)展規(guī)劃。

 

04.結(jié)語:推理模型迎來開源盛世

自年初DeepSeek爆紅以來,推理模型發(fā)展飛速,不僅逐漸從閉源轉(zhuǎn)向開源,而且更加關(guān)注高效和性價比。昨日下午,DeepSeek在自家open-infra-index庫中發(fā)布了一份題為“開源DeepSeek推理引擎的路徑”的文檔,宣布將開源內(nèi)部推理引擎,并與開源社區(qū)建立更廣泛的合作。今日,智譜新一代GLM-4-32B-0414系列開源模型組團上線,并通過z.ai向大眾開放。全新推理模型同時提供免費版、高性價比版、極速版,以更經(jīng)濟實惠的API價格,為開發(fā)者提供了又一款有競爭力的模型選擇。這些開源進(jìn)展將催化技術(shù)創(chuàng)新的擴散,推動AI普惠,并深刻影響AI產(chǎn)業(yè)發(fā)展進(jìn)程。

相關(guān)推薦