OpenAI最強(qiáng)模型o1的護(hù)城河已經(jīng)沒(méi)有了?
僅在OpenAI發(fā)布最新推理模型o1幾日之后,海外社交平臺(tái) Reddit 上有網(wǎng)友發(fā)帖稱(chēng)骨谷歌Deepmind在 8 月發(fā)表的一篇論文內(nèi)容與o1模型原理幾乎一致,OpenAI的護(hù)城河不復(fù)存在。 谷歌DeepMind團(tuán)隊(duì)于今年8月6日發(fā)布上述論文,題為《優(yōu)化 LLM 測(cè)試時(shí)計(jì)算比擴(kuò)大模型參數(shù)規(guī)模更高效》(Scaling LLM Test-Time Compute Optimally can be More Effective than Scaling Model Parameters)。 ![]() 谷歌DeepMind團(tuán)隊(duì)于今年8月6日發(fā)布的論文 在這篇論文中,研究團(tuán)隊(duì)探討了大模型(LLM)在面對(duì)復(fù)雜問(wèn)題時(shí),是否可以通過(guò)增加測(cè)試時(shí)的計(jì)算量來(lái)提高決策質(zhì)量。這項(xiàng)研究表明,增加測(cè)試時(shí)(test-time compute)計(jì)算比擴(kuò)展模型參數(shù)更有效?;谡撐奶岢龅挠?jì)算最優(yōu)(compute-optimal)測(cè)試時(shí)計(jì)算擴(kuò)展策略,規(guī)模較小的基礎(chǔ)模型在一些任務(wù)上可以超越一個(gè)14倍大的模型。 ![]() 無(wú)獨(dú)有偶,另一篇由谷歌和斯坦福大學(xué)研究人員于今年1月發(fā)表的論文《思維鏈賦能 Transformer 解決本質(zhì)上的串行問(wèn)題》(Chain of Thought Empowers Transformers to Solve Inherently Serial Problems)也提出了類(lèi)似的觀點(diǎn)。該論文探討了“思維鏈”(Chain of Thought,簡(jiǎn)稱(chēng) CoT)技術(shù),旨在突破 Transformer 模型在串行推理方面的限制。 傳統(tǒng)的Transformer模型擅長(zhǎng)并行計(jì)算,但在處理需要邏輯推理的復(fù)雜問(wèn)題時(shí)表現(xiàn)欠佳。CoT的核心思想是讓模型模擬人類(lèi)的思考方式,通過(guò)生成一系列中間推理步驟,來(lái)解決復(fù)雜問(wèn)題。 OpenAI 近期發(fā)布的o1 模型,或正是上述理念的實(shí)踐。o1模型在給出答案之前,會(huì)生成一系列中間推理步驟,不斷完善自己的思維過(guò)程,嘗試不同的策略,并能識(shí)別自身錯(cuò)誤。隨著更多的強(qiáng)化學(xué)習(xí)和思考時(shí)間,o1的性能持續(xù)提升。 有網(wǎng)友表示,“所有的秘密突破和算法最終都會(huì)隨著頂尖開(kāi)發(fā)者在行業(yè)內(nèi)的流動(dòng)而傳播到其他公司和開(kāi)源社區(qū)。”谷歌也表示沒(méi)有人擁有護(hù)城河,這也促使OpenAI將o1-mini的速度提高7倍,每天都能使用50條;o1-preview則提高每周50條。 有網(wǎng)友評(píng)論道:“唯一可能形成護(hù)城河的是硬件,至少在可預(yù)見(jiàn)的未來(lái)是這樣。”也有人認(rèn)為,如果AI大模型公司無(wú)法解決對(duì)顯存的依賴(lài),英偉達(dá)可能會(huì)直接掌控誰(shuí)能夠獲得計(jì)算能力。而如果微軟或谷歌開(kāi)發(fā)出在自研芯片上運(yùn)行速度快10倍的模型,情況也會(huì)變化。 目前,英偉達(dá)在AI大模型算力的分配上占據(jù)主導(dǎo)地位。值得注意的是,OpenAI近期也被曝出其首款芯片計(jì)劃,采用臺(tái)積電最先進(jìn)的A16級(jí)工藝,專(zhuān)為Sora視頻應(yīng)用打造。這些跡象表明,大模型的競(jìng)爭(zhēng)已不僅局限于模型本身,硬件能力也成為關(guān)鍵因素。在AI領(lǐng)域,誰(shuí)能擁有更強(qiáng)大的算力,誰(shuí)就可能在下一階段的競(jìng)爭(zhēng)中占據(jù)優(yōu)勢(shì)。 |