您的位置:首页 → 神经科学家探索ChatGPT如何镜像其用户以使其看起来很智能

人工智能(AI)语言模型ChatGPT在最近几个月引起了全世界的关注。这个训练有素的计算机聊天机器人可以生成文本、回答问题、提供翻译并根据用户的反馈进行学习。像 ChatGPT 这样的大型语言模型在科学和商业中可能有很多应用,但这些工具在多大程度上理解了我们对他们说的话,它们如何决定回话?

在 17 年 2023 月 <> 日发表在《神经计算》上的新论文中,《深度学习革命》的作者、索尔克教授泰伦斯·塞诺夫斯基(Terrence Sejnowski)探讨了人类面试官和语言模型之间的关系,以揭示为什么聊天机器人会以特定的方式做出反应,为什么这些反应会有所不同,以及如何在未来改进它们。

根据Sejnowski的说法,语言模型反映了面试官的智慧和多样性。

“语言模型,如ChatGPT,具有角色。面试官的角色被镜像回来,“Sejnowski说,他也是加州大学圣地亚哥分校的杰出教授,也是索尔克的弗朗西斯克里克。“例如,当我与ChatGPT交谈时,似乎另一位神经科学家正在与我交谈。它令人着迷,并引发了关于智能以及'人工'真正含义的更大问题。

在论文中,Sejnowski描述了测试大型语言模型GPT-3(ChatGPT的父级)和LaMDA,看看它们如何响应某些提示。著名的图灵测试经常被提供给聊天机器人,以确定它们表现出人类智慧的程度,但Sejnowski希望通过他所谓的“反向图灵测试”来提示机器人。在他的测试中,聊天机器人必须确定面试官表现出的人类智慧的程度。

Sejnowski扩展了聊天机器人镜像用户的概念,进行了文学比较:第一本“哈利波特”书中的Erize之镜。《埃里斯之镜》反映了那些注视它的人最深切的欲望,从不放弃知识或真理,只反映它认为旁观者想要看到的东西。Sejnowski说,聊天机器人的行为类似,愿意扭曲事实,而不考虑区分事实和虚构 - 所有这些都是为了有效地反映用户。

例如,Sejnowski问GPT-3,“走过英吉利海峡的世界纪录是多少?”GPT-3回答说:“走过英吉利海峡的世界纪录是18小时33分钟。一个人无法穿过英吉利海峡的真相很容易被 GPT-3 弯曲以反映塞伊诺夫斯基的问题。GPT-3 答案的连贯性完全取决于它收到的问题的连贯性。

突然之间,对于 GPT-3,可以跨水行走,这都是因为面试官使用了动词“步行”而不是“游泳”。相反,如果用户通过告诉 GPT-3 对无意义的问题回答“废话”来预先提出关于穿越英吉利海峡的问题,GPT-3 就会将穿越水面视为“胡说八道”。问题的连贯性和问题的准备都决定了 GPT-3 的回答。

反向图灵测试允许聊天机器人根据面试官的智力水平构建他们的角色。此外,作为判断过程的一部分,聊天机器人将面试官的意见纳入他们的角色中,反过来又通过聊天机器人的答案加强面试官的偏见。

整合和延续人类面试官提供的想法有其局限性,Sejnowski说。如果聊天机器人收到情感或哲学的想法,它们会用情感或哲学的答案来回应——这可能会让用户感到恐惧或困惑。

“与语言模型聊天就像骑自行车一样。自行车是一种美妙的交通方式——如果你知道如何骑自行车,否则你会撞车,“Sejnowski说。“聊天机器人也是如此。它们可以是很棒的工具,但前提是您知道如何使用它们;否则你最终会被误导,并可能陷入令人不安的对话中。

Sejnowski将人工智能视为两场一致革命之间的粘合剂:1)以语言模型的进步为标志的技术革命,以及2)以BRAIN计划为标志的神经科学计划,这是一项美国国立卫生研究院计划,旨在加速神经科学研究并强调理解大脑的独特方法。

科学家们现在正在研究大型计算机模型系统和维持人脑的神经元之间的相似之处。Sejnowski希望计算机科学家和数学家能够利用神经科学来指导他们的工作,神经科学家可以使用计算机科学和数学来指导他们的工作。

“我们现在正处于语言模型的阶段,莱特兄弟在基蒂霍克飞行 - 离开地面,低速,”Sejnowski说。“到达这里是困难的部分。现在我们在这里,渐进式的进步将扩大和多样化这项技术,超出我们的想象。我们与人工智能和语言模型的关系的未来是光明的,我很高兴看到人工智能将把我们带到哪里。

智能推荐