
实习生 张梦然 周思彤
人工智能(AI)所创作的科研作品引发了学者们对“思维剽窃”的热议。
自然杂志最近刊载的一则报道显示,在对一系列大型语言模型生成的学术论文的研究中,部分研究人员发现了一种不明显的抄袭现象。他们指出,尽管这些论文未直接复制文字内容,但存在挪用他人研究方法或核心观点的行为,而且往往没有明确标注出处。
不过这一说法遭到了一些学者和人工智能研发团队的反驳。
"思想挪用"相关论争屡见不鲜
今年一月韩国高科院研究员朴炳俊收到了班加罗尔研究所“揭露小组”的邮件。他们告知某名为《The AI Scientist》的工具生成的一篇未发表的手稿疑似使用了他的研究成果,但并没有署名。“The AI Scientist”是一款由东京Sakana公司开发的计算机科学领域的全自动科研工具代表产品,它能够通过大型语言模型提供研究思路并自主编写代码,并撰写出研究论文。
朴炳俊审查了报告后发现,虽然该人工智能模型的草稿提出了一种新的架构,但是它和朴教授的论文并不在同一个研究领域,然而两篇文章的核心算法非常接近。
印度揭露团队的发现表明,并非个例,他们指出,此类现象并非个别发生,去年2月在发表的研究中表示,经过外部专家评估,多个AI生成手稿存在未直接复制文字却挪用他人观点且不署名的现象,这些研究观点表面上看起来新颖,实际上是巧妙地抄袭,其原创性难以验证。
此外,“揭发团队”也发现,今年3月Sakana AI发布的一篇通过国际学习表征会议研讨会同行评审的全AI生成的论文,涉嫌使用了2015年发表的一项研究中的核心成果,且未进行引用,文章还借鉴了另一篇2015年的未署名手稿。专家们认为,这篇AI论文与当年的研究相似度达到5级,即高度类似。
为了验证这一假设,研究人员挑选了斯坦福大学团队在2024年发布的人工智能方案、Sakana AI的手稿和与前者采用相同方法所产出的36份新计划,私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596并向13位行业专家征求他们的意见。这些专家会依据5个级别的相似度量表打分,从完全一致到完全不匹配,共分为五级。结果显示有24%的AI生成方案符合4-5级。
关于抄袭的定义仍有争议
针对上述指控,“The AI Scientist”研发团队予以否认, 称“抄袭指控不实,毫无根据且应被无视”。团队表示,被质疑的AI手稿与前人研究假设不同、应用领域各异,即便方法存在部分关联,也只是“未引用相关文献”,在人类研究者中也属常见现象。此外,团队已承认工具存在引用不足问题,并强调AI生成成果并非抄袭。
学界对“是否构成抄袭”的判断仍存在争议。美国佐治亚理工学院机器学习研究员本·胡佛认为朴炳俊提及的AI论文与其研究内容相似度仅为3级,“无法被视为抄袭”。韩国高等科学技术研究院研究生白真宥则强调创新性主观性强,学术评审在会议中常对何为原创争执不休。
朴炳俊本人估计他的研究与其发表在期刊上的AI论文的相似性达到5级,但同时他也认为这样的描述可能并不完全满足法律或者伦理层面上对于抄袭这一概念的理解。
柏林应用科学大学专家德博拉·韦伯-伍尔夫指出,在争议问题中出现分歧的关键是“抄袭”这一概念的理解差异。部分计算机科学家认为抄袭应具备主观故意欺骗的特性,但她主张应该以“意图不应作为判断标准”,因为人工智能没有主观意识,且现有的AI系统无法追踪观点来源。她援引国际学术诚信中心原主任泰迪·菲什曼的定义:“在恰当标注可识别的观点或成果,并预期具有原创性时,即构成抄袭”。
现有的学术体制正面临着重大的挑战
争议背后,是AI科研在挑战现有的学术体系。德国锡根大学机器学习专家乔拉恩·比尔指出:计算机科学领域的论文数量每年都在激增,研究者对于自己观点新颖性的验证本身就十分困难;而大型语言模型利用重组训练数据生成观点的特性,会导致学术信用流失,因为人工私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596智能倾向于借鉴前人研究成果。
更关键的是,验证“思想抄袭”的有效解决方案尚不明确。韦伯-伍尔夫指出,目前没有一种统一的方法可以识别出“思想抄袭”与“文字抄袭”之间的区别,观点挪用难以量化。新加坡南洋理工大学的AI研究员刘阳也表示,现有的技术虽然能够检测句子语义相似性,但有关观点或概念层面相似度的研究非常稀少。
研究表明Turnitin的商业抄袭检测工具并没有有效区分出由大型语言模型生成的AI文章和人工撰写的学术内容。至于学术搜索大型语言模型工具OpenScholar,则能准确地在库中检索到一篇此类文章。
人工智能研究者The AI Scientist在进行“大型语言模型生成关键词+语义学者搜索引擎+大型语言模型评估”的创新流程中,尽管这一举措通过验证观点的新颖性,但却因其过于简化而引发了一定争议。有人批评此过程不足以全面反映创新的深度与复杂度,因为关键词可能难以精准概括其独到的观点;另一方面也指出,这无法保证搜索结果覆盖关键文献,并因此与领域专家的专业判断相去甚远。
AI规范的制定尚处于早期阶段,尚待完善。
面对争议,学者们普遍认为需要规范对人工智能研究工具的应用。
新加坡国立大学计算机科学家靳民彦认为,尽管人工智能(AI)已经取得了巨大进步,在不久的将来将普及,但如何正确、有效地应用AI尚是一个大问题。为此,“The AI Scientist”团队表示,其成果仅仅是“概念验证”,旨在证明通过AI技术生成科研论文是可行的。他们同时也承认,AI生成论文可能存在质量问题,并建议研究人员仅在这一阶段使用这项工具进行启发思考,同时建议研究者应自行验证人工智能生成内容的可靠性。
目前在学术领域中尚未形成成熟的关于AI生成研究成果的准则;如何在这两者之间达到一种平衡仍然是学界当前最迫切需要解决的问题。
顶: 4835踩: 925




评论专区