思維鏈路(1 / 1)
準確地說,DeepSeek並不是第一次釋出模型了。
在孟繁岐的視角來看,DeepSeek所公佈的技術,一直以來都有不錯的創意。
Closeai與DS也是有一些技術交流的,只不過兩者合作並不緊密,孟繁岐也沒有太將這個做量化的跨界公司放在眼中。
他認為,DS所做的稀疏沒有高壁壘,仍舊受制於英偉達顯示卡。
換言之,孟繁岐雖然驚訝與DeepSeek-v3竟然彎道超車,提前完成了他在兩個技術方向上的設想,但這件事情總體來說還是在意料之中的。
孟繁岐早就想過可能會有其他公司搶先做到,也做好了心理準備
對比之下,DeepSeek-R1系列模型,則完全超乎孟繁岐的意料。
尤其是R1-Zero這一技術,可以說是完全在孟繁岐的理解之外。
在GPT發展到第四代之後,讓大模型對問題進行分析推理成為了提升模型效能的一個重要技術。
早期,有學者發現了一個非常微妙的事情,在與大模型進行交流對話的時候,如果你對它說,“請一步一步好好思索分析這個問題”,僅僅只是新增了一句話,卻起到了明顯的作用。
經過學者們的測試,完全相同的模型,加上這句話作為提示詞後,在各個資料集和指標上的驗證結果都有了顯著的提高。
在有些地方上,這麼一句話帶來的顯著的效果甚至超過將模型擴大幾倍規模。
這個發現讓人們開始關注大模型的推理能力。
由於大模型生成每一個字的時候,都會將此前的所有文字考慮進去,這就導致了逐步分析問題的生成方式,其輸出的穩定性和邏輯性,都要比直接生成一個結論要強不少。
在直接將GPT-4級別的模型訓練得更高這件事情碰壁之後,讓模型形成思維鏈便成了一大研究重心。
而今真正將CoT(chainofthoughts)思維鏈落實到大模型並公開使用的,只有GPT4-o1。
推理系列的模型,會先針對提問進行一長串的分析和思考,逐一考慮各種可能性,最後才會開始嘗試回答問題。
這種回答方式雖然慢了一些,但質量顯然有了顯著提升。
o1系列的思考過程是不公開的,或者說,只會展現給使用者一小部份摘要。
這麼做的原因,是為了增加其他AI公司的模仿成本。
最先進的大模型是如何思考問題的,這個思索推理的過程是非常珍貴的資訊。
因為此前,讓大模型具有推理分析能力需要大量高質量的CoT思維鏈資料。
許多難題應該如何逐步推理,不僅要準備每一步的分析,還要交叉確認這些內容步驟正確。這比起大模型早期時代在網際網路上到處摘抄文字,獲取的難度和成本不可同日而語。
饒是孟繁岐坐擁最大的AI相關知識互動社羣,想要梳理出高質量的思維鏈文字也並不容易。
透過大量類似的高質量資料監督大模型學習推理的過程,這才有了第一個強智慧的推理模型o1。
在這樣的領先優勢之下,自然不可能詳細開放o1的推理過程給使用者。
若是如此,其他公司獲取思維鏈路資料以蒸餾自己AI模型的成本就會遠低於自己,孟繁岐不可能做這樣的傻事。
坐擁這樣的先發優勢,孟繁岐又可以藉助使用者的反饋,來獲取和調整新的思維鏈路資料。
因此在他看來,自己在大模型思維推理這方面的優勢是巨大的,擁有堅不可摧牢不可破的壁壘。
然而,DeepSeek-R1-zero狠狠地擊碎了他自說自話的夢想。
“R1-zero可以直接在DeepSeek-V3的版本上做強化學習,不需要大量高質量監督資料就能夠探索出比較好的思維推理,增強了模型回覆的長度、邏輯性和準確度。唯一的問題是這種方式獲取的模型思維對於人類來說可讀性不強。”孟繁岐繼續閱讀著R1-zero和R1的相關報告。
與各種自媒體所宣傳的不需要思維鏈資料不同,R1系列顯然還是需要這些高質量資料的,這讓孟繁岐內心稍稍安寧了一些,只要這部分資料還有價值,他總不至於淪落到過去一年多的投入變為一場空。
真正的R1還是需要優質思維鏈路資料來冷啟動的,雖然從結果上看,R1並沒有比R1-Zero準確很多,不過它的思維邏輯和方式人類更加容易讀懂了。
可以說,比起現在人人都搶著試用的R1,R1-Zero版本給孟繁岐的震撼要大很多。
R1-Zero成為了一種合成高質量思維鏈資料的方式,比起孟繁岐刀耕火種的標註和確認,大模型合成的規模和效率顯然存在千萬倍的潛力。
“有R1-Zero獲取大規模的鏈路資料,針對思維鏈的每一個步驟再去分析計算,也就不大必要了。”孟繁岐終於理解了,為什麼DeepSeek的成本低到令人髮指。
孟繁岐一直以為,DeepSeek對外開放的API呼叫價格這麼低,只是因為母公司不差錢,沒準備用這個服務賺錢。
由於他們沒有網際網路大廠天然的使用者基礎,低價API和免費網頁試用,都只是積累使用者的前期投入。
而今細讀DeepSeek在引數低bit訓練,高倍率權重稀疏,以及批次資料合成等方面的成就。孟繁岐這才明白,原來他們真的已經將成本降低了一個數量級。
“DeepSeek-R1雖然已經來到了一流級別,但距離現在滿血的o1還有一定的差距。我們正在研發的新版本在效能上也更具有領先優勢。”
DS的熱度在持續攀升,孟繁岐很快接到了團隊的報告。對於這種“我還沒輸”的分析,他並不認可。
“效能指標只是紙面上的,如今階段,兩三個點的差距使用者在使用的時候已經難以察覺。並且,拋開成本談效能,實在是耍流氓了。”
孟繁岐進行過實驗性質的超大模型訓練,效能確實屢創新高,但推理一個問題的成本就能到幾十塊乃至上百元。
試問這樣的使用價格,只是幾個點的提升又有什麼實際的意義呢?
“DeepSeek的低成本訓練大大降低了加入AI領域的門檻,我想很多還在觀望的公司都會有所動作。我們應該將策略從技術壟斷調轉方向,開始側重為大企業進行實際應用的適配。”
孟繁岐在歷史的轉折點做出了重大的決定。