主页 > 电视要闻 >IBM 的人工智能工具箱让你简单测试深度学习网络 (DNN) >

IBM 的人工智能工具箱让你简单测试深度学习网络 (DNN)

2020-05-21


IBM今天宣布推出Adversarial Robustness Toolbox予AI的开发人员。这个开源工具包齐集了机器学习程序员攻击深度学习神经网络(DNN)所需的材料,以确保它们能够承受真实世界的条件和内容。



该工具箱採用代码库的形式,其中包括攻击,防御的实用程序和基準测试工具,这些工具允许开发人员将旧有的韧性转化成对抗攻击。这就像AI的混合武术训练师用来评估DNN的韧性一样,教导它制定防御技术,并提供一种内部的防病毒层。这或许不是一个标準练习的地方,但对DNN来说绝对是至关重要的。

对抗攻击是由敌人对DNN进行攻击,并以多种方式希望可以破坏,重新导向或欺骗AI,从在物理方面混淆到对付DNN的机器学习来达到反AI的目标。在中国,面部识别软件是他们执法技术的其中一个组成部分,其中包括配备人工智能的闭路电镜头,能够在6万多人中挑出一张脸。随着人工智能变得更有能力,西方世界可能也会仿效。

外国资讯网站TheNextWeb(TNW)早前报导了以下图片中语音系统的漏洞,欺骗语音到文本的系统。这对语音助理来说固然是坏消息,代表着黑客们现在可以简单地坐在公共交通工具或办公室里,并假装自己听一首歌曲来嵌入信号。IBM 的人工智能工具箱让你简单测试深度学习网络 (DNN)

这些威胁还包括欺骗GPS来误导船只,攻击船载系统,伪装船只ID以欺骗AI驱动的卫星等等。随着更多的全球人工智能系统上线,国家支持针对军舰行动的可能性也逐渐成为事实。去年,美国海军领导人在回答有关海上一系列问题时,对抗系统攻击的想法已经不止一次出现。

其实特别容易受攻击的AI系统还包括无人驾驶汽车和军用无人机,如果AI系统的安全受到威胁,两者都可能会被黑客控制。实际上,所有的DNN都需要具备抵御攻击的能力,不是的话就与没有病毒防护的计算机一样有用。

有关IBM新Adversarial Robustness Toolbox的更多信息,您可以查看该公司的博客文章。

资料来源: TheNextWeb



上一篇:
下一篇: