
来源:视觉中国
刘女士
美国著名的人工智能研究机构OpenAI于5月14日凌晨发布了一款新的大型语言模型GPT-4。这一举动再次引发了全球范围内的对人工智能领域的广泛关注和讨论。
尽管AI已成为众所周知的概念,但它的运作方式仍旧非常复杂且隐藏很深,就像是一个不可解之谜一样。因为AI依赖于机器学习算法,先进的机器学习算法使用模拟人脑结构的神经网络来进行工作,这些神经网络在传递信息的过程中会使用人类无法理解的方式“内化”数据,从而形成它们自身的认知框架,并不透明。
这个题目的确是大型预训练模型,如ChatGPT或大型的语言模型(LLM)面临的一个重大问题。其根源主要归因于这些模型的庞大尺寸——一些模型在数千亿或者更多的参数上运行,远远超过了人类大脑能处理的数量级。
《自然》杂志网站15日报道,为了理解机器学习(Machine Learning,ML)系统的内部工作流程,科学家们正在对AI系统进行反向工程。他们将会仔细扫描模型“大脑”,以此来了解模型的运作机制、如何运行以及为什么这样做。
谈话疗法
由于聊天机器人可以进行对话,一些研究人员就让模型自我解释,以了解其工作原理。这种方法类似于心理学中使用的“谈话疗法”。
德国有名的计算机科学家蒂洛·哈根德夫认为人脑和Learning Model一样是一个未解之谜。
去年,哈根德夫撰写了一篇文章,“机器心理学”。他指出,将LLM视作人类主体,并且使它参与到对话中来,有助于我们理解它复杂的行为模式。
在解决复杂的挑战时,大脑的潜意识往往会采取分解步骤的方式去分析问题。基于此,谷歌团队于2022年创新性地引入了“思维链提示”,它旨在展现大型语言模型(如语言模型)的思考过程。
简而言之,思维链提示是一种特别的上下文学习方式,私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596它与普通提示不同在于,后者只会提供输入与输出之间的对应关系,而前者会附加推理的过程。
这一技术通过比较GPT-3等三款大型语言模型的成果来证实其有效性,并且发现它们在一系列运算难题上的准确率有了显著提升。然而,美国纽约大学最近的一项研究指出:虽然LLMs确实进行了推理计算,但却没有正确利用思维链这种能力,而是偷偷地加了额外的操作。
美国东北大学计算机科学家戴维·鲍表示,虽然在研究人类方面使用Llam非常奇怪,但两者的行为却以令人惊讶的方式重合。在过去两年里,许多科学家将用于人类的问卷和实验应用于LLM,并对其人格、推理、偏见、道德价值观、创造力、情绪、服从性等进行了测量。结果显示,在许多情况下,机器能复制人类行为。但在有些情况下,它们的行为与人类行为不一样。例如,Llam比人类更容易受到暗示,其行为也会随着问题措辞的不同而发生巨大变化。
头颅扫描
一部分研究人员借鉴了神经科学领域的知识和方法,用来理解法学硕士学位课程的工作方式。
研究聊天机器人如何行骗时美国卡内基梅隆大学计算机专家安迪·邹及其团队询问了LLM成员,并观察了它们的神经元激活情况。邹指出,这有点像是对人类进行脑部扫描,也有些像是用测谎仪来观察人的情绪。
研究人员尝试让语言模型重复说谎或说真话,并记录下它们在神经元上的变化。然后每私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596当给它提出新问题时,他们就可以观察其反应,并据此判断答案是否真实。在一项简单任务中,这种方法准确率达到90%以上。邹称此类系统可以在实时检测出语言模型的不诚实行为。
鲍和他的研究伙伴也研发了一种扫描和编辑人工智能神经网络的技术,其中包括一个叫做因果回溯的技术,该技术能辨识出在AI系统特定处理某些类型的问题时所涉及的具体部分。
鲍博士指出人工神经网络的优点是它可以让神经科学家做他们最梦想的事情,例如研究单个神经细胞的行为,并在上万个模拟神经元的基础上运行网络;可以对它们实施数百万次模拟,也可以进行各种疯狂的测量和干预;这一切都不用经过伦理审查。
“解释不完全”
邹和鲍等人认为利用LLM扫描技术应当从高到低进行,首先定义概念或事实,并将其与大脑的潜在神经表征建立联系。另一些科学家则是采取由内向外的方法,也就是说,他们关注的是神经元的功能,尝试了解其能够代表什么。
自诞生以来,神经网络的复杂结构一直使它们成为AI研究中的“难题”,特别是它的不可解释性。但是,在2023年,一家名为Anthropic的公司研发出一项技术,成功将512个神经元分解成4096个可解读特征。这标志着其具有了可理解性。
研究人员认为他们的这一做法有可能解决人工智能难以解释这一重大难题。如果人们能弄清楚LM工作的原理,他们就能很轻易地辨别出一个模型是否可靠,并据此做出它们应该采纳还是不采纳的决定。
不过邹指出这种方法很有价值却并不适用于解释更复杂的行为模式。
虽然研究人员正在努力理解人工智能如何运行,但是越来越多的人们已经就这一问题形成共识:AI公司的责任就是为其算法的决策过程提供说明,而政府同样应该制定相关的法律条款来确保其实施。
顶: 1踩: 1



评论专区