订阅
纠错
加入自媒体

眼见和耳听或都不能为实!更多人正在被AI变声”“换脸”合成骗取钱财

2023-05-24 09:37
TechRadio
关注

人工智能带来了难以置信的机会,但任何技术都有可能被恶意使用。AI 工具的获取和使用变得越来越容易,也让网络犯罪分子能够以更加难以识破的方式进行诈骗。

文丨阿秋

编辑丨张飞 

近日,网络安全公司 McAfee发布的一份报告显示,越来越多的人被人工智能(AI)诈骗。调查发现,10% 的成年人曾经被这种诈骗方式针对,另外 15% 的人认识有人被骗过。

亚利桑那州立大学AI领域的教授坎巴姆帕蒂称,只需获得某人3秒钟的原声,就能迅速复制出完全相同的声音。这给了不法分子利用该项技术诈骗的机会,即给受害者留下假的语音邮件,或者冒充他们的好友打电话给他们。据悉,在受害者中,有 77% 的人表示在诈骗中损失了钱财,其中三分之一的人损失超过 1000 美元,还有 7% 的人损失了5000 -15000 美元。

McAfee 首席技术官 Steve Grobman 称,“人工智能带来了难以置信的机会,但任何技术都有可能被恶意使用。AI 工具的获取和使用变得越来越容易,也让网络犯罪分子能够以更加难以识破的方式进行诈骗。”

AI助力骗子横行 

“最近ChatGPT引爆AI风潮,刷新了人们对AI的认知。AI技术是把双刃剑‘’,在给人们生活提供便利的同时,也给不法分子留下了可乘之机,眼见不一定为真,耳听也不一定为实。”

日前,据南通反诈消息,小刘的初中同学“小韩”通过QQ联系小刘,准备借6000元钱。小刘向来谨慎,担心“小韩”不是本人,没想到“小韩”发来一条声音很像本人的语音。后来“小韩”又给小刘打了一通视频电话,看到对方的脸后,小刘便相信了对方,于是给“小韩”提供的银行卡转了6000元。

不过,小刘转完钱后越想越不对劲,觉得“小韩”表情僵硬,于是拨打小韩的电话,没想到小韩的QQ账号被盗了,这才意识到被骗,随后立即报警。警方初步判断,通话的视频极有可能是诈骗分子通过AI技术“变声”“换脸”诈骗手段合成的。

这并非个例,4月2日,央视网报道称,加拿大犯罪分子利用AI合成亲人声音实施诈骗,3天时间内至少有8人上当,涉案金额约100万元。这些受害者多为老年人,他们表示,“电话里的声音简直和亲人一模一样”。

早在2019年,《华尔街日报》曾报道过一名诈骗犯用AI语音合成来冒充老板,让一家分公司的总经理给他打了22万欧元。但在当时,诈骗者还得准备被模仿者的语料进行训练打磨。而现在,AI让克隆声音几乎没什么门槛,连方言和语气的模仿都不在话下。

此外,以往被认为安全的“声纹”系统如今也能被轻易破解。

3月,《卫报》澳大利亚版记者尼克·伊夫赛德称,他用人工智能做出自己的声音,成功进入了自己的Centrelink自助服务账户。而就在两年前,澳大利亚服务局在一份报告中声称“声纹与指纹一样安全”。

提高警惕是自我防范的首要

据了解,当下不法分子利用AI主要通过AI合成声音、AI换脸展开诈骗活动。所谓AI合成声音,是指骗子通过拨打骚扰电话等方式,录音提取诈骗对象及其重要关系人的声音特征,然后利用AI技术进行语音合成,进而用伪造的声音实施诈骗。

因为人脸效果更易取得对方信任,所以不法分子还会利用AI换脸技术,即通过合成视频或照片“以假乱真”,冒充诈骗对象的亲人、朋友等重要关系人,扰乱诈骗对象的视线进而实施诈骗。

此外,不法分子还会使用AI技术筛选和锁定受骗人群。他们会分析诈骗对象在网络平台发布的个人信息,根据所要实施的骗术利用AI技术对人群进行筛选,从而选出目标对象,制定诈骗计策。

那么,面对如此强势的技术骗局,个人该如何保护自己不受诈骗的侵害呢?

南通反诈提示,一方面,在涉及钱款时,大家要提高安全意识,通过电话、视频等方式确认对方是否为本人,在不能确定真实身份时,要格外留意、不要着急汇款,避免上当受骗,建议将到账时间设定为“2小时到账”或“24小时到账”,以预留处理时间。

另一方面,个人应当加强个人信息保护意识,切勿接听任何陌生人邀请的视频验证或语音聊天,谨防骗子利用AI技术搜集人脸、声音等素材,掌握大量个人信息并对人物性格、需求倾向等进行刻画,从而有针对性地实施诈骗。

泰和泰律师事务所律师刘青在接受媒体采访时建议,若遭遇诈骗应第一时间报警寻求警方帮助,注意保留相关材料以供警方尽快掌握案情、严惩犯罪分子。

如发现自己的肖像被盗用或者“被换脸”,刘青建议,用户应当第一时间保留证据,以便后续维权。“同时,用户还可以向网络平台运营商提出投诉,要求强制下架侵权图片或视频,也可以提起人格权诉讼,用法律武器维护自己的合法权益。”

用魔法打败魔法? 

2018年,纽约州立大学曾开发出一款“反换脸”AI刑侦工具,通过预测眼睛是否眨动的状态来识别伪造人脸,准确率宣称能够达到99%,但这款工具很快便失效了,因为深度伪造技术的进化速度更快。

随着AI的技术演进,人们所听所见将越来越不可信,对了应对先进技术带来的负面影响,科技企业也在希冀使用技术手段拦截和防范AI带来的语言合成、AI换脸、内容虚假等深度伪造问题。

2019年,谷歌开始有意识地防御,先是招募了一群演员录制视频,然后利用网上的深度伪造技术进行换脸等操作,并对这些数据进行全面地分析,让开发者们研究深度伪造技术的算法和逻辑,在“知己知彼”的基础上,更准确地识别和防治深度伪造内容。

此后,微软推出了名为“Video Aunthenticator”的工具,其能够对画面中渲染边界和灰度等级进行逐帧的实时分析进而生成可靠指数,帮助用户鉴别内容真实性。

不久前,OpenAI 公司发布了一款AI分类器,可识别人工智能生成的文本。AI分类器基于一个语言模型,通过对同一话题的人类文稿和AI文稿数据集的大量学习和训练,以识别文本是否由AI生成。但博客数据显示,检测成功率只有26%,对英文以外的语言,检测效果要差很多。

在2022世界人工智能大会治理论坛上,上海交通大学凯原法学院院长、特聘教授彭诚信曾指出:“数字社会中伦理之治的根本还在于人,企业伦理、科技的可信向善,归根结底还是人的可信向善,因此需要完善法律监管、厘清法律基本责任,确立人们的行为规范。”

为对AI技术进行快速有效地监管,国际方面,白宫官员近日向美国科技公司发出邀请,希望与行业企业领导者共同探讨针对人工智能的监管问题。参加的科技公司包括谷歌、微软和OpenAI等公司高管。

上个月,欧洲数据保护委员会已经成立了一个专门针对ChatGPT的工作组,并朝着制定人工智能隐私规则的共同政策迈出的重要一步。

“我们希望人工智能的能力成为改善人类生活、促进人类文明发展的’助推器’,以及人类走向星际文明的’摆渡人’。”

上海交通大学安泰经济与管理学院教授史占中在近期一场媒体沙龙上表示,从国家的层面来讲,要加快AI相关领域的立法,特别在金融、安全、健康等领域严格监管,厘清AI的设计者、使用者、内容生成者的权责关系,完善AI决策的问责机制,保护大众合法权益;而从社会层面来讲,应加强AI技术的监管,推进AI研发者遵守伦理准则与规范AI的发展。

国内方面,相关监管政策也在细化落实中。为促进生成式人工智能技术健康发展和规范应用,国家网信办起草了《生成式人工智能服务管理办法(征求意见稿)》,并于4月11日向社会公开征求意见。

征求意见稿要求,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,承担该产品生成内容生产者的责任;利用生成式人工智能产品向公众提供服务前,应当向国家网信部门申报安全评估,履行算法备案和变更、注销备案手续等。

       原文标题 : 眼见和耳听或都不能为实!更多人正在被AI变声”“换脸”合成骗取钱财

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

人工智能 猎头职位 更多
扫码关注公众号
OFweek人工智能网
获取更多精彩内容
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号