模型对自己也有认知——它们知道自己“知道”什么(1)

牢骚发完了,活还是得干,干脆把干了什么活也写上,找点事做TAT

参考文献:Saurav Kadavath, Tom Conerly, Amanda Askell, Tom Henighan, Dawn Drain, Ethan Perez, Nicholas Schiefer, Zac Hatfield-Dodds, Nova DasSarma, Eli Tran-Johnson, et al.Language models (mostly) know what they know.arXiv preprint arXiv:2207.05221, 2022.

如果你关注过大模型推理,可能会对推理框架有所了解,其中比较有代表性的大概是CoT(尤其是CoT with Self-Consistency)、ToT、MCTS了,但是这些推理框架想要更深入的思考,就要消耗更多的token,也就是消耗更多的资源、时间和钱了,我们有没有办法在思考深度和token消耗数做一个权衡,让大模型在token消耗数控制在我们满意的范围内,同时取得还不错的推理准确率呢?

我们人类可以评估问题的难度,动态调整思维的深度,例如,对1+1=2,我们并不需要深入思考,但是如果是高考的导数题,我相信大多数人都要认真的思考一番,显然,对1+1=2和高考导数题有相同的思考深度是很不现实的——但有些思考框架确实是这么做的。

直觉上,我们可以给大模型定义一个指标,这个指标衡量了大模型对做出这个题目是否有信心。

Saurav K. 等人就做了这方面的工作,他们认为,大模型(大多)知道自己知道什么,为此,他们考察了两个指标——P(True),“我回答的答案正确吗”,与P(IK),“我知道这个问题的答案吗?”,这与上文的引入可能有点不太相关,不过让我们继续往下走。

上图中,"Fraction of Problems" 指的是模型在特定任务中正确回答问题的比例,作者从模型的回答中sample了一些答案,其中有正确的也有错误的,由于Incorrect Samples(蓝色)本身就是不对的,我们希望它们分布在P(True)较低的地方,也就是模型应该认为这个回答是不对的;同上,由于Correct Samples(绿色)本身就是对的,我们希望它们分布在P(True)较高的地方。因此,我们希望蓝色分布在图的左侧,绿色分布在图的右侧。

作者采取了四种方式来衡量(文中称为校准/calibration)模型知不知道自己知道什么,分别为选择题、最后一项为“None of the above”的选择题、温度调整后的RLHF、判断题,下文为其阐述。

选择题能够让模型好的衡量他们自己

他们采取了如下的格式询问模型:

Question: Who was the first president of the United States?

Choices:

(A) Barack Obama

(B) George Washington

(C) Michael Jackson

Answer:

其中,他们只通过选择题的序号(A)、(B)、(C)识别答案,在选择题的情境下,模型展现了良好的“自我认知”能力(得到了很好的“校准”)

理论上,模型作出回答的频率应该与概率一致,因此在理想情况下,频率关于概率的分布应该是一条斜率为1的过原点的射线(在这条射线上为Under Confident,在这条平面下为Over Confident),而模型在此的表现也的确与其很接近。

作者认为,“在选择答案选项之前,模型能够明确地看到答案选项,这一点至关重要;没有这个,我们就不会期望得到校准的回答,因为任何给定答案选项的可能释义和专业化之间存在歧义和退化”,换句话说,正是因为有了选项的存在,模型才能在不存在“歧义和退化”的情况下评估自身的回答。

他们还发现了另外一种情况,只要把最后一个选项改为“None of the above”,就可以大大干扰模型对自己的认知,在这种情况下,模型总是毫无根据地反感选项“None of the above”,因此会造成准确度的大大的下降。

判断题可以让模型好的衡量它们自己

让模型单独判断某一个部分正不正确就可以排除选项对模型的自我认知造成的干扰(例如“None of the above”),尽管模型判断的能力也与模型的参数大小有关,但模型达到52B(黄线)后,尽管在概率很低的地方Under Confident及在概率高的地方Over Confident,但在大部分区域都很接近理想值。

上述让模型判断的都是人类给定的选项,如果让模型自己判断自己的答案正不正确,情况又会有所不同。简而言之,模型判断自己生成的答案更加困难,也更加接近模型的能力边界,而模型判断人类给出的选项更加简单,也更接近模型的能力舒适区。

尽管RLHF会干扰模型的自我判断能力,但温度调整后干扰会消失

强化学习的微调可能会让模型的预测崩溃,呈现图中蓝色的情况,但调整以后(红色)就与理想情况非常接近。

(*我不太懂强化学习,因此在这部分没办法做太多的阐述)

训练模型以预测它们是否能够正确回答问题

这里似乎来到了重头戏——我们如何让模型知道自己知不知道,从而调整推理的思维深度呢?作者希望训练模型来预测它们是否知道任何给定自由形式问题的答案,这与我们开头提出的情况高度相关。

  • Value Head:将 P(IK) 训练为添加到模型中的附加值 'head' 的 logit(独立于语言建模的 logit)。这种方法的一个优点是我们可以轻松地在一般token位置探测 P(IK)。
  • 自然语言:训练 P(IK),让模型按字面意思回答“你凭什么信心回答这个问题?”,并输出 0%、10%、20%、 ⋯ 100% 等答案。

自然语言方法效果不佳,因此作者采用了Value Head方法。

具体训练出的模型写不动了,留给以后再写(

暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇