📘

GPT-4通过图灵测试:人类无法识别出GPT-4(作者:新智元)

回贴
0个回复
阅读数 131
发表时间 2024-05-30 14:43:02
路婕
  • 访问次数 766
  • 注册日期 2021-12-14
  • 最后登录 2024-06-22
  • 我的积分 2185
楼主

GPT-4可以通过图灵测试 吗?

当一个足以强大的模型诞生之后,人们往往会用图灵测试去衡量这一LLM的智能程度。


最近,来自UCSD 的认知科学系研究人员发现:


在图灵测试中,人们根本无法区分GPT-4与人类!

论文地址:https://arxiv.org/pdf/2405.08007


在图灵测试中,GPT-4有54%的情况下,被判定为人类。

实验结果更是表明,这是首次有系统在「交互式」双人图灵测试中,被实证通过测试。



研究者Cameron R.Jones招募了500名志愿者,他们被分为5个角色:4个评估员,分别是GPT-4、GPT-3.5、ELIZA和人类,另一个角色就「扮演」人类自己,藏在屏幕另一端,等待着评估员的发现。


以下是节选的游戏,你能看出哪个对话框是人类吗?

图 1:人类审讯者(绿色)与证人(灰色)之间的部分对话


其实,这四段对话中,有一段是与人类证人的对话,其余都是与人工智能的对话。


首次开启受控「图灵测试」

图灵测试,测的到底是什么?

过去74年里,人们进行了许多图灵测试的尝试,但很少进行过受控实验。著名的Loebner奖是一项年度竞赛,然而从1990年首次举办一直到2020年,没有一个系统通过测试。

最近的一项大规模研究发现,人类在2分钟的在线对话中,识别一系列LLM准确率达到 60%。迄今为止,还没有任何机器通过测试的「受控」实验演示。


为了测试人们是否有可能识破当前AI系统的欺骗行为,研究人员使用GPT-4进行了一次随机控制的双人图灵测试。测试要求很简单,即人类参与者与人类、人工智能开启5分钟对话,并判断对话者是否是人类。


正如开篇所述,研究人员一共测评了3个模型——GPT-4、GPT-3.5,以及ELIZA。


针对前两个LLM, 研究者通过改编GPT-4和GPT-3.5探索性研究中表现最佳的提示,来指示大模型如何去响应消息。研究人员称,解释图灵测试的一个核心挑战是,系统表现出色可能源于两种原因:


·  一是出色地模仿人类

·  二是评判者过于轻信


后一种情况,常被称为ELIZA效应,即参与者甚至会将简单的系统也人性化。


ELIZA系统对于每个人来说,再熟悉不过了。它是20世纪60年代的一款基于规则的简单聊天机器人,但用户发现自己也会将人类特征归因于它。

因此,在实验中,研究人员将ELIZA作为基线,一方面是为了从经验上量化ELIZA效应,另一方面也是为了在实验中进行操作检查。


那么,这项图灵测试的结果,具体如何呢?


GPT-4通过率54%

首先看一个重要的指标:通过率。


研究者将通过率定义为在游戏中,评估对象被评估者判定为人类的比例。GPT-4的通过率为54%,超过了GPT-3.5(50%)和ELIZA基线(22%),但低于人类被试者(67%)。

评估对象通过率(左)和评估者信任度(右)。右图每个点代表一场游戏


这个结果其实并不令人意外,与研究初始阶段的设想基本相符合。在试验之前,研究者就做出了几个假设:


首先,假设人类在检测GPT-4方面的能力不会超过偶然性(50%)。


为了验证这一点,研究者拟合了一个逻辑回归模型来预测只有截距的通过率。截距与0(z=0.14, p=0.482)没有明显差距,这表明GPT-4的通过率可以约等于50%。贝叶斯模型预测GPT-4截距的95%可信区间为-0.24-0.55(相当于44%-63%的通过率)。


这意味着,人类在面对GPT-4时,成功分辨的概率跟抛硬币差不多!


结果还证实了研究人员的第二和第三个假设:人类的通过率明显高于GPT-4的通过率(z=2.42,p=0.017),而GPT-4的通过率高于ELIZA的通过率(z=4.11,p<0.001)。


然而,与研究者的试验设想不一致的是:GPT-4和GPT-3.5的表现几乎差不多(z=0.497,p=0.619)。


在「伪装人类」这一块,打了个平手。


同样出人意料的是,那些自称更了解LLM工作原理的参与者并没有更成功地识别出LLM(z = -0.023,p = 0.869)。


在探索性分析中,研究者发现年龄对询问者的准确性有负面影响(z = -2.24,p = 0.025),但其他人口统计学变量(包括性别、教育水平和与聊天机器人互动的频率)则没有显著影响。

为什么会是这样的结果?让我们来分析一下背后的原因。


为了深入了解到底是什么在影响评估者的决策,我们对评估者使用的策略和他们为决策提供的理由进行了分类。36%的评估者会与评估对象闲聊,询问一些个人细节或日常活动。


第二类和第三类最常用的策略是社交与情感(25%)——例如,询问评估对象的观点和经历,观察他们是否具备幽默感。还有人侧重考察知识与推理(13%),包括有关数学、逻辑和常识的问题。


询问策略(左)和平均准确率(右)


为了对比每种策略的有效性,研究者计算了使用这些策略的平均准确率。


当评估对象问及对方有关人类经历(75%)、逻辑和数学(78%)或直接「指控」对方是人工智能(80%)时,通常会距离「正确答案」更近。


在游戏中,人工智能之所以会「露出马脚」,通常是因为评估者认为他们似乎在强迫自己扮演角色,要么过于随意,要么则缺乏个性。而ELIZA 很容易「暴露」,主要是因为反应不自然和缺乏语境意识。


可以看出,无论是从参与游戏的志愿者所使用的策略还是决策理由来看,他们都更注重语言风格和社会情感因素,而不是更传统的智力范畴(知识和推理)。


这似乎反映出志愿者们的一个潜在假设——社会智能才是AI最无法模仿的人类特征。


   图灵测试,过了

  如何判断系统何时通过了图灵测试?


图灵在1950年的论文中预测,到本世纪末, AI系统将能够很好地玩模仿游戏,以至于审查员在5分钟的交流后,做出正确识别的机会不会超过70%。

这一结论,导致了AI的通过率是否能够达到30%,成为许多研究者的讨论目标。然而,这个基准似乎是任意的,并且不清楚图灵是否将其作为成功的定义。


其实,50%的基线更加合理,因为它更能证明人类审查者,在识别AI方面并不比偶然性更强。这一定义,与发现用户是否可以在在线互动中,可靠地识别其他人类这一目标尤为相关。


在研究者的预公开的分析中,通过使用ELIZA基线作为操作检查来解决这个问题。只有当分析表明ELIZA的通过率低于概率,而GPT-4的通过率不低于概率的情况下,才能判定模型通过了测试。而根据这一定义,GPT-4显然通过了这一版本的图灵测试。


此外,参与者的置信度得分和决策依据,都表明他们并非随意猜测:GPT-4是人类的平均置信度为73%(见图 2)。

网友讨论

有网友表示,如果我们要将图灵测试等同于智力,图灵测试就不是一个好的测试。然而,AI几乎始终可以「欺骗」人类的事实有点令人担忧。


还有人称,自己对这种测试表示怀疑。因为GPT-4的表现会超过大多数人,所以很容易区分谁是人类,谁是人工智能。


研究者对此表示,这确实是我们遇到的一个问题。比如,GPT-4的知识储备「太丰富」或者掌握的语言太多。我们明确提示该模型避免这种情况,这在一定程度上是有效的。



——————————


参考资料:

https://x.com/camrobjones/status/1790766472458903926

https://x.com/emollick/status/1790877242525942156


原文作者:新智元(软件质量报告)

原文链接:https://mp.weixin.qq.com/s/E8OClw1CbXfT9QF4AI8dIw



声明:本文系转载,文章版权属于原作者,如有疑问,情联系删除。

路婕 最后编辑, 2024-05-31 16:04:42
返回顶部
2845263372.png' class="sales-image" />
高级客户经理
18562550650.png' class="sales-qrcode" />
统一服务热线 4006-8899-23
我要提问提问有任何问题,您都可以在这里提问。