人工智能时代还需要“杀毒软件”吗?

人工智能时代还需要“杀毒软件”吗?

2020-11-26

在AI人工智能新时代,归属于防毒软件的“辉煌年代“是否己经结束了?AI人工智能做为推动新一波科技革命和产业变革的革命性技术,己经渗入了社会日常生活的方方面面。可在新技术为人们日常生活带来诸多便利的同时,其带来的的安全隐患也备受关注,比如数据信息泄露、算法偏见、算法系统漏洞等问題,给经济发展和社会安全带来了多种挑戰。

人工智能安全

“安全是發展的前提条件,保证 AI人工智能安全、可靠、可控,才算是守卫AI人工智能稳健發展的根本。”瑞莱智慧CEO田天说。

田天

4月8日,这一来自清华大学AI人工智能研究所的创业团队发布了国内第一个针对算法模型本身安全的检测系统——RealSafeAI人工智能安全平台。做为AI人工智能新时代的“防毒软件”,该平台可提供从测评到防御完整的解决方法,迅速减轻对抗样本攻击威胁。AI人工智能问世60多年来,技术获得了长足的进步,但仍存有着模型缺点、算法不可解释性、数据信息强依赖感等“软肋”。伴随着数据量、算力的大幅度提高,未来AI人工智能技术的应用场景会日渐提升,而且将从语音识别技术、面部识别等领域逐渐拓宽向金融管理决策、工业生产经营、医疗诊断、自动驾驶等更高市场价值的应用领域,这将对AI人工智能技术的安全性、可靠性提出更高要求,提高算法安全性成为新一波AI人工智能智能产业升级下的新方位。

2018年,中国通信网络研究所安全研究编制的《AI人工智能安全白皮书》中提到,“算法安全”是AI人工智能六大安全隐患之一,并着重指出了“对抗样本攻击引诱算法鉴别出現误判漏判“这种算法模型缺点为算法安全的关键风险项。田天讲解,对抗样本是机器学习模型的1个有意思状况,但根据在源数据信息上提升人类没法根据感官识别到的微小改变,能够让机器学习模型接受并作出错误的归类决定。比如,在一张“阿尔卑斯山”的照片上添加一些人眼没法觉察的噪声,一切正常状况下人眼依然能分辨这张图显示信息的是高山,可是图像分类模型却会将它错误鉴别为狗。

历经持续的升級演变,对抗样本攻击己经不仅滞留在数据世界,针对物理世界的攻击也开始出現。如在地面上粘贴对抗样本贴纸效仿合拼杂带,误导特斯拉自动驾驶汽车拐进逆行车道;佩戴对抗样本生成的眼镜,轻易破解手机面部解锁;胸前张贴对抗样本贴纸即可实现“隐身”等。“在网络安全新时代,网络攻击的大规模渗透倒逼了防毒软件的问世。”田天说,“针对算法系统漏洞这种‘新型病毒’,人们同样需要开展安全评估评测能力建设,打造AI人工智能新时代的‘防毒软件’,以技术手段为支撑,切实规避AI人工智能算法缺点可能带来的安全隐患。

借助于清华大学人工智能研究院及本身数年来的技术累积,瑞莱智慧研发的人工智能安全平台,内嵌了优秀的攻防优化算法模型,为政府部门、公司等提供安全性测评与安全防范,高效用对优化算法威胁。相比于普遍的开源工具需要自主部署、撰写代码,这一“杀毒”平台只需要使用者提供相应的数据,就可以线上进行评定,降低了优化算法测评的技术难度。该平台支持五种去除对抗噪声的通用防御方法,可对输入数据进行自动去噪处理,破坏攻击者恶意添加的对抗噪声。经测试,一部分第三方人脸对比应用程序接口在使用平台的防御方案加固后,安全性可提升 40%以上。

“发布安全性检测平台是规避人工智能风险的1条路径,未来我们还需要联合各界力量,共同推动人工智能安全性相关的国家标准、行业标准、联盟标准的制定,为人工智能产品安全评估测评的统一参考。”田天最后说。

x
微信

微信号:xyzn68

添加微信立即免费使用,为您解决一切问题!

确定

免费试用

添加微信免费试用

客服微信

服务热线:

13332872325

2020 版权所有 © Copyright @2016 广东小映智能科技有限公司 All Rights Reserved 粤ICP备18123585号