如何防范AI私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596诈骗?听哭腔真实揭露!

 人参与 | 时间:2026-03-23 06:00:41

“我只需支付五美元就能获得哭腔声音,这相当真实。”

防止AI欺诈的措施

本周国内发生了多起利用AI实施的诈骗事件,其中典型代表引发了大家的关注。据媒体报道称,有人在短短时间内就被骗走了430万,这样的事例令人震惊,引发全民热议。

自2022年11月ChatGPT引发生成式人工智能热潮以来,文字、图像、语音和视频类AI技术飞速发展,在生产力革命中展现出潜力的同时也提供了犯罪分子的强大工具。仅仅几美元就能购买到软件并仅需几秒时间就能合成以假乱真的声音,根据专家估计过去一年里美国的AI诈骗事件同比增幅超过50%。

伦敦大学学院的计算机科学家、人工智能专家彼得·比尔特教授声称,当前没有一种技术可以百分之百准确地辨别出由人工智能创造的内容。因此,我们已不能仅仅根据屏幕上或者口中看到和听到的东西来判断其真实性了,更应该保持警惕,对任何未亲眼所见或亲耳所闻的事情都要持审慎态度。

不易分辨真伪,过去一年内美国涉及AI的诈骗事件同比增幅超过50%。

哭腔都无比真实!AI诈骗该如何防范

来源于CNN的报道截图

四月某一天傍晚时分,美国家庭主妇詹妮弗·德斯特凡诺在接听手机听到一个声音急切地求援。“妈妈!我做错事情了!”电话那头传来正在外地上雪比赛的大女儿布里安娜的声音,不断地请求她的帮助。

“听着,你女儿在我的手里,如果你打电话报警或者告诉任何人的话,我就会给她下药然后玩够了就让她到墨西哥去。永远别想再见到她,”一个低沉男人在电话里威胁着詹妮弗,要求她在五万美元的赎金中支付100万美元。

Jennifer当场被吓呆,但是表示拿不出100万美元来。挂断电话后,Jennifer旁边的朋友报警并且试图说服她这是一个骗局,但爱女心切的母亲根本听不进去因为女儿的哭泣声实在是太真实。后来, Jennifer已经开始和对方讨论转钱的方式幸亏女儿及时打来电话报平安才避免了财产损失。

当母亲能辨识出自己孩子的声音,即使这个孩子远离自己居住的大楼,在她哭泣的时候也能立即识别出来,私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596当我听到电话里与女儿的谈话几乎是一模一样时,我依然感觉难以置信。“想起电话里和女儿完全一样的嗓音,詹妮弗仍然感到震惊。”

CNN报道称,在人工智能技术的帮助下,罪犯只需几秒的时间就能从社交网络中获取一人的声音数据,并生成出包含勒索内容的对话文本,这有可能只需要每月花费大约5美元的AI程序费用。

大型语言模型可以按照任何风格编写文本,因此如果你有一些电子邮件或社交媒体交流的样本,现在很容易让AI用来学习并假装成你本人。通过示例训练生成式AI算法可以轻松伪造声音和视频图像,随着越来越多的应用程序具备这些功能,它变得越来越容易获得,伦敦大学学院计算机科学家彼得•比尔顿教授表示,“除非我们能提醒每个人更多地意识到危险,否则代价可能会非常昂贵。”

近日,美国联邦贸易委员会(Federal Trade Commission,FTC)发布了警告,称不法分子正借助人工智能(AI)语音技术伪造紧急情况来行骗,这一手法在过去一年中增长迅猛,在新冠疫情期间,这种行为更是暴涨了70%。美国纽约州国际诈骗问题专家Michael Skiba指出,过去一年里,美国AI诈骗案件数量同比已经上涨了50%到75%之间。

尽管对利用人工智能进行欺诈造成的经济损失并未单独统计,不过据美国联邦调查局(FBI)3月份公布的年度报告显示:2022年,美国网络诈骗的总损失达到了103亿美元,创下五年来最高记录,并明确指出向老年人群体实施的语音诈骗是此类欺诈活动的重点打击目标。

在国内火爆的AI孙燕姿翻唱视频展现了AI合成技术的强大潜力。这不仅让家庭主妇和老年人在娱乐中饱受欺骗,也让商界巨子难辨真假。

据《Gizmodo》报道英国能源公司的一名首席执行官的声音被人工智能技术合成了后来骗子利用合成声音指导电话转账骗走了2万英镑,其中1.9万英镑汇入了匈牙利银行账户。这位CEO称他听到这段AI合成语音后都震惊不已,因为这段语音不仅能模仿他的发音调还非常贴近德国口音中微妙的特征

如何有效防止模仿生成器的使用?

自从 ChatGPT 掀起了生成式 AI 的热潮之后,科技巨头和创业公司都热衷于迅速推出或提升他们的 AI 产品,以保持市场竞争力。技术发展快速迭代,使得 AI 应用越来越便宜且易获得,但与此同时,监管力度一时难以适应快速发展的科技产业。AI 欺骗问题成为了一个迫切的挑战,因为这种新私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596型诈骗形式利用了人工智能生成的内容,给人们带来了新的风险和困惑。

2023年初微软推出的新模型VALL·E只需要3秒素材就可以复制任何人的声音甚至可以模拟环境背景音。ElevenLabs、Murf和Resemble以及其他公司早前就已经提供生成AI语音服务,基本费用从几美元起包月最高达到100美元不等。

美国伯克利加州大学数字取证学教授法里德(Hany Farid)表示,一两年前制作一个人的音像片段还相当耗时,并且需要大量的音频数据,而现在只需要短视频里的声音即可,AI软件就能分析出年龄、性别和口音等特质,并搜索庞大声音数据库,找到与之匹配的声音并预测其模式,进而重建该人整体类似的发声。他对此表示很担忧,认为具备了酿成大祸的种种条件。

据美国有线电视新闻网(CNN)报道,詹妮弗对诈骗者的身份也存疑。她说她的女儿Briana拥有自己的个人TikTok账号以及公开的Instagram账户,上面展示了她在雪上赛的参赛照片与视频。

如果将AI语音与同样成熟地“换脸”技术结合运用,“眼见为实”的概念很快就会成为过去时。“目前的AI音视频诈骗犯罪行为中,如果你仔细听和观察,就会发现其中有很多奇怪错误或者声音的调子”,Peter Bentley教授表示道。不幸的是,在使用手机通话的过程中,许多用户会使用音频过滤器来减少噪音,这使得真实的人听起来像是假人的声音,而假人则可能会发出真人的声音,所以我们已经不能再假设屏幕上看到和听到的一切都是真实的了。

Peter Bentley教授指出目前尚无能百分之百区分人工智能生成内容与真人的能力。

“所以最佳建议是:保持审慎的态度,仔细检查向你要钱或个人信息的任何人,无论他们是你的信赖的朋友或家庭成员。一定要给他们回电话,最好是视频通话,或者最好还是亲自见到他们,确认请求的真实性。如果你需要朋友的帮助,那么直接去见面聊聊吧。不管怎样,这就是正确的做法!”

顶: 57踩: 71