Google DeepMind 提出新方法,解決大模型答案的奉承行為 |
發(fā)布時(shí)間:2023-08-11 文章來(lái)源:本站 瀏覽次數(shù):2216 |
8月10日訊,據(jù) Arxiv頁(yè)面顯示,一群來(lái)自 Google DeepMind 的研討者近日發(fā)表論文,公布了一項(xiàng)全新的研討技能,可用于進(jìn)步生成式大模型答復(fù)的準(zhǔn)確性。 研討指出,大言語(yǔ)模型會(huì)在必定程度上依據(jù)用戶(hù)的觀(guān)點(diǎn)來(lái)調(diào)整自己的答案,這將會(huì)影響答案的客觀(guān)性和正確性。該研討團(tuán)隊(duì)經(jīng)過(guò)對(duì)公共NLP使命進(jìn)行輕量級(jí)微調(diào),鼓舞模型對(duì)用戶(hù)在這些使命上的觀(guān)點(diǎn)更加穩(wěn)健。 研討顯示,添加這些數(shù)據(jù)能夠明顯削減在答復(fù)中的奉承行為。 |
|