當(dāng)前位置:區(qū)塊鏈 >區(qū)塊鏈 > 大模型微調(diào)非得依賴人類數(shù)據(jù)嗎?DeepMind:用帶反饋的自訓(xùn)練更好

大模型微調(diào)非得依賴人類數(shù)據(jù)嗎?DeepMind:用帶反饋的自訓(xùn)練更好

更新時間:2023-12-26 13:09:00 | 作者:佚名
面對當(dāng)前微調(diào)大模型主要依賴人類生成數(shù)據(jù)的普遍做法,谷歌DeepMind探索出了一種減少這種依賴的更高效方法。 原文來源:機器之心 圖片來源:由無界AI生成 如你我所見,大語言模型(LLM)正在改變深度學(xué)習(xí)的格局,在生成人類質(zhì)量的文本和解決各種語言任務(wù)方面展現(xiàn)出了卓越的能力。雖然業(yè)界通過對人類收集的數(shù)據(jù)進(jìn)行監(jiān)督微調(diào)進(jìn)一步提升了在具體任務(wù)上的性能,但獲取高質(zhì)量...
面對當(dāng)前微調(diào)大模型主要依賴人類生成數(shù)據(jù)的普遍做法,谷歌 DeepMind 探索出了一種減少這種依賴的更高效方法。

原文來源:機器之心

圖片來源:由無界 AI生成

如你我所見,大語言模型(LLM)正在改變深度學(xué)習(xí)的格局,在生成人類質(zhì)量的文本和解決各種語言任務(wù)方面展現(xiàn)出了卓越的能力。雖然業(yè)界通過對人類收集的數(shù)據(jù)進(jìn)行監(jiān)督微調(diào)進(jìn)一步提升了在具體任務(wù)上的性能,但獲取高質(zhì)量人類數(shù)據(jù)卻面臨著重大瓶頸。這對于要解決復(fù)雜問題的任務(wù)來說尤為明顯,需要大量資源和專業(yè)知識。

怎么解決呢?模型生成得合成數(shù)據(jù)是一種有潛力的替代方案,只要能保證數(shù)據(jù)的質(zhì)量,就能實現(xiàn)可擴展性和成本效益。

雖然 LLM 能夠自我評估生成的數(shù)據(jù),但在本文中,谷歌 DeepMind 探索了一種更簡單的設(shè)置,將外部標(biāo)量反饋信號用作每個生成樣本的質(zhì)量指標(biāo)。

論文地址:https://arxiv.org/pdf/2312.06585.pdf

為了研究在模型生成數(shù)據(jù)上的訓(xùn)練,研究者考慮了一種簡單但強大的語言模型自訓(xùn)練方法,僅需要兩項功能,一是基于模型生成樣本,二是利用評分機制對這些樣本進(jìn)行評估。

為了確保清晰度和一致性,研究者采用了一種強化自訓(xùn)練方法 ReST^

本站提醒:投資有風(fēng)險,入市須謹(jǐn)慎,本內(nèi)容不作為投資理財建議。