• 正文
    • 01.用圖像思考手繪草圖、顛倒文字都能處理
    • 02.多模態(tài)任務(wù)大幅優(yōu)于前代模型視覺推理準(zhǔn)確率高達(dá)97.5%
    • 03.延續(xù)“更多計(jì)算=更好性能”思路已開源輕量級(jí)編程Agent
    • 04.仍有三大局限性:推理鏈過程、感知錯(cuò)誤、可靠性不足
    • 05.結(jié)語:發(fā)力視覺推理邁向多模態(tài)推理
  • 相關(guān)推薦
申請(qǐng)入駐 產(chǎn)業(yè)圖譜

o3和o4-mini來了!OpenAI突破最強(qiáng)“看圖思考”,開源AI編程神器,史上最大收購曝光

04/17 13:30
430
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點(diǎn)資訊討論

編譯 | ?程茜

編輯 | ?云鵬

Altman發(fā)文盛贊新視覺推理模型:天才水平。

智東西4月17日?qǐng)?bào)道,今日凌晨,OpenAI重磅發(fā)布兩大視覺推理模型OpenAI o3和o4-mini,這也是OpenAI o系列中首次可以使用圖像進(jìn)行思維鏈推理的模型。OpenAI還開源了輕量級(jí)編程Agent?Codex CLI,發(fā)布不到7個(gè)小時(shí),Star數(shù)已超5500。

這兩個(gè)模型的區(qū)別在于,OpenAI o3是最強(qiáng)大的推理模型;OpenAI o4-mini是一個(gè)針對(duì)快速、成本效益推理進(jìn)行優(yōu)化的較小模型。新模型首次將圖像融入思維鏈過程,還能自主調(diào)用工具,在一分鐘內(nèi)生成答案。

OpenAI開源的編程Agent Codex CLI能最大化模型推理能力,可在端側(cè)部署。今日OpenAI還在AI編程領(lǐng)域曝出重磅收購交易。據(jù)外媒報(bào)道,OpenAI正在洽談以30億美元(約合人民幣219億元)收購AI輔助編程工具Windsurf(前身為Codeium),這將是OpenAI迄今規(guī)模最大的一筆收購。

今天起,ChatGPT Plus、Pro和Team用戶可以使用o3、o4-mini和o4-mini-high,這些模型會(huì)取代o1、o3-mini和o3-mini-h(huán)igh。ChatGPT企業(yè)和教育用戶將在一周后獲得訪問權(quán)限。免費(fèi)用戶可以在提交查詢前選擇“思考”來嘗試o4-mini。OpenAI預(yù)計(jì)在幾周內(nèi)發(fā)布OpenAI o3-pro,并配備完整工具支持。目前Pro用戶仍可訪問o1-pro。o3和o4-mini通過Chat Completions API和Responses API向開發(fā)者開放。

OpenAI聯(lián)合創(chuàng)始人兼CEO Sam Altman在社交平臺(tái)X上發(fā)文盛贊o3、o4-mini是“天才水平”。

正在被OpenAI洽談收購的Windsurf,正式名稱為Exafunction Inc.,成立于2021年,已籌集超過2億美元的風(fēng)險(xiǎn)投資資金,估值30億美元,近期與其洽談融資事宜還包括Kleiner Perkins和General Catalyst在內(nèi)的投資者。去年11月,Windsurf發(fā)布了全球首個(gè)智能體IDE。

近期AI編程創(chuàng)企融資火爆,Cursor背后的初創(chuàng)公司Anysphere在今年早些時(shí)候與投資者洽談以近100億美元(約合人民幣731億元)的估值獲得新融資。此前OpenAI曾收購過向量數(shù)據(jù)庫公司Rockset和遠(yuǎn)程協(xié)作平臺(tái)Multi。如果收購Windsurf的新交易完成,OpenAI將進(jìn)一步補(bǔ)充AI編程助手實(shí)力,與Anthropic、微軟旗下Github、Anysphere等知名AI編程公司展開更直接的競(jìng)爭(zhēng)。交易條款尚未敲定,談判仍有可能發(fā)生變化。

01.用圖像思考手繪草圖、顛倒文字都能處理

o3和o4-mini模型可以直接將圖像整合到思維鏈中,用圖像來進(jìn)行思考,并且其還會(huì)被訓(xùn)練推理在什么時(shí)間點(diǎn)使用哪種工具。

具體來看,模型可以解讀人們上傳的白板照片、教科書圖表或手繪草圖,如果圖像模糊、顛倒,模型也能借助工具實(shí)時(shí)操作圖像,如進(jìn)行旋轉(zhuǎn)、縮放或變換等,或者與Python數(shù)據(jù)分析、網(wǎng)絡(luò)搜索、圖像生成等工具協(xié)同工作,這些都是模型推理過程的一部分。

如用戶上傳一張隨手拍的圖片,可以詢問模型圖片“最大船只的名字、在哪里??俊钡葐栴}。

例如在使用內(nèi)置文獻(xiàn)解決一道數(shù)學(xué)難題時(shí),OpenAI o3可以在不使用搜索的情況下給出正確答案,o1則無法提供正確響應(yīng)。

面對(duì)幫助用戶“收集區(qū)域旅行數(shù)據(jù)、經(jīng)濟(jì)統(tǒng)計(jì)數(shù)據(jù)和酒店入住率,病直觀分析趨勢(shì)并推薦理想的擴(kuò)張地點(diǎn)”這一復(fù)雜問題時(shí),OpenAI o3的結(jié)果引用了更多與行業(yè)相關(guān)的來源,并提出了詳細(xì)計(jì)劃,同時(shí)預(yù)測(cè)現(xiàn)實(shí)世界的挑戰(zhàn)并提供主動(dòng)的緩解措施。相比之下,01的結(jié)果更為寬泛。

在根據(jù)用戶上傳的一張“手持節(jié)目單”照片進(jìn)行分析后,OpenAI o3能夠準(zhǔn)確考慮日程安排并輸出可用的計(jì)劃,而o1存在不準(zhǔn)確之處,某些節(jié)目時(shí)間錯(cuò)誤。

模型能夠根據(jù)遇到的信息做出反應(yīng)和調(diào)整,例如,它們可以在搜索提供商的幫助下多次搜索網(wǎng)絡(luò)、查看結(jié)果,并在需要更多信息時(shí)嘗試新的搜索。這使得模型可以處理需要訪問超出模型內(nèi)置知識(shí)、擴(kuò)展推理、綜合和跨模態(tài)輸出最新信息的任務(wù)。

02.多模態(tài)任務(wù)大幅優(yōu)于前代模型視覺推理準(zhǔn)確率高達(dá)97.5%

在成本和性能方面,OpenAI預(yù)計(jì)對(duì)于大多數(shù)實(shí)際應(yīng)用,o3和o4-mini分別將比o1和o3-mini更智能且更便宜。o4-mini和o3-mini在成本和性能方面的對(duì)比:

o3和o1在成本和性能方面的對(duì)比:

OpenAI在一系列人類考試和機(jī)器學(xué)習(xí)基準(zhǔn)測(cè)試中測(cè)試了OpenAI o3和o4-mini,其結(jié)果顯示,這些新的視覺推理模型在所有測(cè)試的多模態(tài)任務(wù)上都顯著優(yōu)于前代模型。

其中,無需瀏覽的圖像思維幾乎在其所有評(píng)估的感知基準(zhǔn)測(cè)試中均取得了顯著提升。OpenAI o3和o4-mini在STEM問答(MMMU、MathVista)、圖表閱讀和推理(CharXiv)、感知原語(VLMs are Blind)和視覺搜索(V*)方面均達(dá)到了新的最先進(jìn)性能。在V*上,新模型的視覺推理方法達(dá)到了95.7%的準(zhǔn)確率。

o3在分析圖像、圖表和圖形等視覺任務(wù)上表現(xiàn)更好。外部專家的評(píng)估中,o3在困難、現(xiàn)實(shí)世界的任務(wù)上比OpenAI o1少犯20%的重大錯(cuò)誤。早期測(cè)試者強(qiáng)調(diào)了其在生物學(xué)、數(shù)學(xué)和工程背景中分析嚴(yán)謹(jǐn)性問題的能力,以及可以生成和批判性地評(píng)估新穎假設(shè)的能力。

在專家評(píng)估中,o4-mini在非STEM任務(wù)以及數(shù)據(jù)科學(xué)等領(lǐng)域表現(xiàn)超過o3-mini。且o4-mini支持比o3高得多的使用限制,具備高容量、高吞吐量的優(yōu)勢(shì)。

外部專家評(píng)估員認(rèn)為這兩個(gè)模型都表現(xiàn)出比先前模型更好的指令遵循能力和更有用、可驗(yàn)證的響應(yīng),此外,新模型在自然對(duì)話方面,可以參考記憶和過去的對(duì)話來使響應(yīng)更加個(gè)性化的回答。

多模態(tài)能力的評(píng)估結(jié)果:

編碼能力的評(píng)估結(jié)果:

遵循指令和代理工具使用的評(píng)估結(jié)果:


03.延續(xù)“更多計(jì)算=更好性能”思路已開源輕量級(jí)編程Agent

在OpenAI o3的開發(fā)過程中,研究人員觀察到大規(guī)模強(qiáng)化學(xué)習(xí)呈現(xiàn)出與GPT系列預(yù)訓(xùn)練中觀察到的“更多計(jì)算=更好性能”的趨勢(shì)相同。

他們通過在強(qiáng)化學(xué)習(xí)中追溯擴(kuò)展路徑,在訓(xùn)練計(jì)算和推理時(shí)間上又推進(jìn)了一個(gè)數(shù)量級(jí)后,看到了模型明顯的性能提升,這驗(yàn)證了隨著模型被允許進(jìn)行更多思考,其性能仍在持續(xù)提升。

與OpenAI o1相同的延遲和成本下,o3在ChatGPT中實(shí)現(xiàn)了更高的性能,并且其在博客中透露,研究人員已經(jīng)驗(yàn)證,如果讓模型思考更長(zhǎng)的時(shí)間,其性能還會(huì)繼續(xù)提升。

研究人員還通過強(qiáng)化學(xué)習(xí)訓(xùn)練了新模型使用工具,不僅包括如何使用工具,還包括如何推理何時(shí)使用工具。新模型可以根據(jù)期望結(jié)果部署工具,使得其在涉及視覺推理和多步驟工作流程等開放式情境的表現(xiàn)更好。

OpenAI還分享了一個(gè)輕量級(jí)的編程Agent Codex CLI,用來最大化o3和o4-mini等模型的推理能力,用戶可以直接在終端運(yùn)行,OpenAI計(jì)劃支持GPT-4.1等更多API模型。

用戶可以通過傳遞截圖或低保真草圖到模型,結(jié)合對(duì)本地代碼的訪問,從命令行獲得多模態(tài)推理的好處。OpenAI認(rèn)為這可以將模型與用戶及其計(jì)算機(jī)連接起來。今天起,Codex CLI已完全開源。

開源地址:github.com/openai/codex

同時(shí),OpenAI啟動(dòng)了一項(xiàng)100萬美元倡議,以支持使用Codex CLI和OpenAI模型的工程項(xiàng)目,其將評(píng)估并接受以25000美元API信用額度形式提供的補(bǔ)助金申請(qǐng)。

04.仍有三大局限性:推理鏈過程、感知錯(cuò)誤、可靠性不足

不過,在博客中研究人員也提到,圖像推理目前存在以下局限性:

過長(zhǎng)的推理鏈:模型可能會(huì)執(zhí)行冗余或不必要的工具調(diào)用和圖像處理步驟,導(dǎo)致過長(zhǎng)的思維鏈;

感知錯(cuò)誤:模型仍然可能犯基本的感知錯(cuò)誤。即使工具調(diào)用正確推進(jìn)推理過程,視覺誤解也可能導(dǎo)致最終答案不正確;

可靠性:模型可能在多次嘗試解決問題時(shí)嘗試不同的視覺推理過程,其中一些可能導(dǎo)致錯(cuò)誤的結(jié)果。

在安全方面,OpenA重建了安全訓(xùn)練數(shù)據(jù),在生物威脅(生物風(fēng)險(xiǎn))、惡意軟件生成和越獄等領(lǐng)域添加了新的拒絕提示。這使得o3和o4-mini在其內(nèi)部拒絕基準(zhǔn)測(cè)試中表現(xiàn)較好。OpenAI還開發(fā)了系統(tǒng)級(jí)緩解措施,以標(biāo)記前沿風(fēng)險(xiǎn)區(qū)域中的危險(xiǎn)提示。研究人員訓(xùn)練了一個(gè)推理大模型監(jiān)控器,該監(jiān)控器基于人類編寫的可解釋安全規(guī)范。當(dāng)應(yīng)用于生物風(fēng)險(xiǎn)時(shí),該監(jiān)控器成功標(biāo)記了人類紅隊(duì)行動(dòng)中約 99%的對(duì)話。

研究人員更新了應(yīng)急準(zhǔn)備框架,對(duì)o3和o4-mini在框架涵蓋的三個(gè)跟蹤能力領(lǐng)域進(jìn)行了評(píng)估:生物和化學(xué)、網(wǎng)絡(luò)安全和AI自我改進(jìn)。根據(jù)這些評(píng)估的結(jié)果,其確定o3和o4-mini在所有三個(gè)類別中均低于框架的“高”閾值。

05.結(jié)語:發(fā)力視覺推理邁向多模態(tài)推理

OpenAI o3和o4-mini顯著提升了模型的視覺推理能力,這些模型在視覺感知任務(wù)上的提升,使其能夠解決之前模型難以觸及的問題,標(biāo)志著模型向多模態(tài)推理邁出的重要一步。

OpenAI在博客中提到,他們將o系列的專業(yè)推理能力與GPT系列的自然對(duì)話能力和工具使用能力相結(jié)合,未來可以實(shí)現(xiàn)模型能支持無縫、自然的對(duì)話,同時(shí)能主動(dòng)使用工具并解決更為復(fù)雜的問題。

此外,研究人員也在不斷優(yōu)化模型使用圖像進(jìn)行推理的能力,使其更加簡(jiǎn)潔、更少冗余、更可靠。

相關(guān)推薦