最新亚洲人成无码网站,夜夜操夜夜操夜夜爽,中文字日产幕乱五区,在线成人看片黄a免费看,亚洲自偷自拍另类11p

首頁 >> 今日更新 >

谷歌發(fā)布新RL方法,性能提升巨大,o1模型已證明

2024-09-23 09:00:57 來源: 用戶: 

相信很多大家對谷歌發(fā)布新RL方法,性能提升巨大,o1模型已證明還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

谷歌DeepMind的研究人員提出了一種創(chuàng)新多輪強化學習方法——SCoRe。

目前,多數大模型不具備自我糾錯或能力較差,尤其是在數學和代碼領域在給出錯誤答案后,會一直堅持錯誤答案,影響模型的準確率。而SCoRe通過避免訓練數據與模型實際響應分布不匹配以及多輪反饋獎勵機制,來幫助大模型及時糾正自己的錯誤。

OpenAI最近發(fā)布的o1模型便使用了類似的技術,主要亮點之一便是模型的自我糾錯能力,其數學和代碼能力也獲得了大幅度提升。也就是說,強化學習確實能幫助大模型提升輸出性能和準確率。

在傳統(tǒng)的大模型訓練過程中,模型通常通過監(jiān)督學習來優(yōu)化其對特定任務的性能。但這種方法主要依賴于大量的標注數據,并且在訓練和推理之間存在巨大的數據分布差異,導致模型在實際應用中難以有效糾正錯誤。

例如,在圖像識別任務中,模型在訓練時主要使用的是風景領域的圖像,并且對這些圖像的標注信息進行了學習。但在實際應用中,遇到一些與訓練數據差異較大的圖像,光照條件不同、拍攝角度不同以及具備不同物體特征的醫(yī)學圖像時。模型可能就會無法識別這些新圖像,并且難以通過自我糾正來改進性能。

最重要的是,傳統(tǒng)的監(jiān)督學習方法在訓練過程中,并沒有明確地教導模型如何自我糾正錯誤。一旦模型在推理階段產生錯誤的結果,只能依賴外部反饋或手動干預來糾正這些錯誤。這對于需要高度準確率的法律、金融等應用場景來說是一個重大缺陷。

而SCoRe則是在模型自己生成的數據上進行多輪強化訓練,使模型能夠學習到如何根據獎勵信號來調整自己的輸出實現自我糾正。

在訓練過程中,SCoRe 會鼓勵模型嘗試不同的輸出,并根據獎勵信號來判斷哪些輸出是最準確的。幫助模型就能夠逐漸學習到如何在不同的情況下做出正確的決策。

例如,在文本生成任務中,如果模型生成的句子不符合語法或是病句,SCoRe 會給予模型一個負面的獎勵信號,促使模型調整自己的輸出直到生成符合要求的句子。

SCoRe的強化學習方法主要分為兩大階段:在第一階段,SCoRe通過強化學習對基礎模型進行初始化訓練。目標是訓練模型在第一次嘗試時產生高質量的回答,并在第二次嘗試時能夠對第一次的回答進行有效的糾正。為了實現這一目標,研究人員會在模型的輸出上施加一種正則化約束,以避免模型在第一次嘗試中產生與基礎模型差異過大的回答。

這種約束通過計算模型輸出與基礎模型輸出之間的KL散度來實現。通過調整KL散度的權重,可以在保持模型第一次嘗試質量的同時,鼓勵模型在第二次嘗試中進行更大膽的糾正。

在模型初始化訓練完成后,SCoRe進入第二階段多輪強化學習與獎勵塑造。在這一階段,模型在每一輪嘗試中都會接收到一個獎勵信號,該信號基于模型當前嘗試與正確答案之間的匹配程度。通過最大化這些獎勵信號,模型可以逐步學習如何改進其答案。

為了進一步引導模型學習有效的自我糾正能力,研究人員為模型在第二次嘗試中正確糾正錯誤的行為提供了額外的獎勵。

如果第二次嘗試的響應從錯誤變?yōu)檎_,那么這個獎勵項會給模型較大的正獎勵;如果第二次嘗試將正確的響應變?yōu)殄e誤,那么會給予模型嚴重的負懲罰。

這樣的獎勵塑造使得模型更傾向于學習到自我糾正的策略,因為那些沒有改變響應正確性或導致崩潰的軌跡對整體損失的貢獻較小。

為了驗證SCoRe的性能,研究人員在谷歌自研的Gemini1.0Pro和Gemini1.5Flash兩款大模型進行了數學和代碼測試。結果顯示,其自我糾正能力分別提升了15.6%和9.1%。

以上就是關于【谷歌發(fā)布新RL方法,性能提升巨大,o1模型已證明】的相關內容,希望對大家有幫助!

  免責聲明:本文由用戶上傳,與本網站立場無關。財經信息僅供讀者參考,并不構成投資建議。投資者據此操作,風險自擔。 如有侵權請聯系刪除!

 
分享:
最新文章