侵权投诉
订阅
纠错
加入自媒体

谷歌AI学习系统存严重安全漏洞

近日腾讯安全平台部预研团队发现谷歌人工智能学习系统TensorFlow存在严重安全风险,可被黑客利用带来安全威胁,团队已向谷歌报告这一风险并获得致谢,其官方负责人称,考虑到TensorFlow在AI的广泛使用,TensorFlow官网将会像大多数重要软件一样在网站创建安全公告页面,及时披露和修复安全漏洞。

目前,Google的TensorFlow作为开源框架被互联网广泛使用,据官方介绍,谷歌、ebay、airbnb、twitter、uber、小米、中兴等公司均有使用。在TensorFlow中,AI研究者可以复用他人建好的模型来进行AI训练,或直接提供AI服务,大大提高开发效率。

据了解,这些公开的模型通常以文件形式提供,也普遍被认为是无害的。但腾讯安全平台部预研团队发现,攻击者可以生成Tensorflow的恶意模型文件,对AI研究者进行攻击,对受害者自身的AI应用进行窃取或篡改、破坏。

该风险危害面非常大,一方面攻击成本低,普通攻击者即可实施攻击;另一方面迷惑性强,大部分AI研究者可能毫无防备;同时因为利用了TensorFlow自身的机制,其在PC端和移动端的最新版本均会受到影响。AI模型被窃取,损失的是开发者的心血;而一旦被篡改,造成AI失控,后果更难以想象。

此前,AI已有不少实际应用案例,例如深圳试运行的无人驾驶公交、国际会议的AI同声传译;未来更会渗透到社会的方方面面:交通、医疗、安防、金融……在不远的未来,AI安全会直接影响人们的生命财产安全,甚至整个世界的秩序。如电影《复仇者联盟:奥创世纪》那样,终极人工智能奥创为人们的生活提供了无数便利,但当他站到人类的对立面时,也会带来无数灾难甚至毁灭。

据悉,腾讯安全平台部安全预研团队已就此次发现的安全风险向谷歌提交报告,协助风险早日收敛。该团队不仅聚焦AI、移动及IoT前沿领域的安全问题研究,同时也向google,apple,微软,adobe等公司报告多个安全漏洞并多次获得官方致谢。此外,他们对无人机、无线电、物联网、智能楼宇的安全问题也有研究。


声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

安防 猎头职位 更多
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号