
“张佳欣”
火车站繁忙的监控摄像头全面捕捉站台状况。乘客流量、轨道占用和卫生状况等实时传输到中央人工智能(AI)系统。这个系统负责控制列车,使其安全准时地进入车站。然而,如果有任何人企图干扰,比如用一束红色激光模拟火车尾灯,则摄像头可能会误以为轨道上有列车。长时间监控后,AI学会了将这种假信号视为真实信号,并不断发出错误提示“轨道占用”的信息。最终,不仅导致列车调度混乱,甚至可能酿成安全事故。
澳大利亚《对话》杂志最近报道说:这是典型的一个由数据“污染”的例子。人工智能模型若是在学习过程中接收了错误或误导性信息,则会在不知不觉间形成偏向性的认知并作出违背预期的判断。和传统的黑客攻击方式不同,数据污染不会直接损害系统本身,而是让AI“自己学坏”。随着人工智能技术在交通、医疗和媒体等多个领域的普及,这一问题日益受到关注。
"AI毒害"的风险现状
以火车站的例子来说明,如果一个技术熟练的黑客想在公共交通中引起混乱,并收集情报,他每天连续30天发射红色激光干扰摄像头。这样做的结果是,这种攻击可能会逐步侵蚀系统的安全,私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596为后门入侵、数据窃取甚至是间谍活动留下隐患。 虽然物理基础设施的数据污染相对少见,但在基于社交媒体和网页内容训练的大规模语言模型中,此类安全隐患已非常常见。
一个知名的案例发生于2016年,当时微软发布的聊天机器人Tay上线仅仅几个小时就被恶意用户灌输了不恰当的言论,这些言论很快被模仿并发布到了当时很受欢迎的X(Twitter)平台上。随后,在短短不到24小时内,Tay就被迫下线,并向公众道歉。
据英国《新科学家》杂志报道,2024年互联网上出现了一个标志性事件,即AI爬虫首次超过人类用户,其中OpenAI的ChatGPT-User占据了全球6%的网页访问量,它本质上是ChatGPT的“上网代理”。与此同时,Anthropic的ClaudeBot长期大规模抓取网页内容,占到13%的流量。
互联网上大量内容正被AI模型不断收集、吸收用于持续训练,一旦有人有意投放有毒数据比如篡改的版权材料伪造的新闻信息等这些大规模的爬虫就有可能把它们带入模型当中从而导致版权侵权虚假信息扩散在关键领域引发安全风险。
"版权之争中的投毒式反击"
随着AI爬虫的大规模抓取,许多创作者担心作品被未经许可使用。为了保护版权,创作者采取了法律和技术手段。如《纽约时报》起诉OpenAI,称其新闻报道被模型学习再利用,侵犯了版权。
面对旷日持久的版权拉锯战一些创作者转向技术“自卫”。芝加哥大学研究团队开发了两款工具名为Glaze和Nightshade. Glaze是一款允许艺术家加入微小像素级干扰使其看起来像是画在水彩纸上的作品。而Nightshade更私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596激进它能够在看似正常但实际是猫的照片中植入隐蔽特征从而让机器学习到“猫=狗”的错误对应。通过这种方式艺术家们使自己的作品成为训练数据中的毒药以保护原创风格免受模仿的侵害
这种策略曾经是创作者圈子里十分流行的方法。Nightshade发布不到一年,下载量就超过了100万次。与此同时,基础设施公司Cloudflare也推出了“AI迷宫”,其通过制造大量毫无意义的假网页来困住AI爬虫,使得它们在无休止的数据循环中耗费时间及算力。可以这么说,数据投毒已经从一种反击方式,转变为版权和利益冲突中的防御武器了。
去中心化:人工智能的安全卫士
这种情况使人警惕。创作的数字“投毒”是出于保护原作的目的,然而一旦同样技术被用来大量制造不实信息,其后果可能会远远超过版权纠纷。
面对这种隐蔽威胁,研究人员正在开发新的防御策略。在美国佛罗里达国际大学Solid实验室中,研究者们正尝试使用去中心化技术来对抗数据投毒攻击。其中一种方式被称为联邦学习。与传统的集中式训练方式不同,联邦学习允许模型在分布式设备或机构中分散式地学习,仅汇总参数而非原始数据。这种方式可以降低单点中毒的风险,因为一个设备的“坏数据”不会立即导致整个模型被污染。
然而在汇总数据环节如遭攻击损害依旧可能发生。为此另一种工具——区块链已被引入AI防御体系。它的时间戳和不可篡改特性使得模型更新过程可追溯一旦发现异常数据则可以追根溯源定位投毒源头同时多个区块链网络也能互相“通报”当一个系统识别出可疑模式时即可立刻警示其他系统
任何倚赖实际世界资料的数据驱动人工智能(AI)系统都可能会遭到操控。通过使用联邦学习和区块链等防御工具,研究人员和开发人员正努力构建具有更强韧性和可追踪性的AI系统,在面临欺诈时能够发出预警提醒系统管理员及时介入并减少潜在风险。
顶: 93踩: 8




评论专区