研究人员正在通过加强算法抵御攻击来促进人工智能更安全的未来

信任对于人工智能在各行各业的广泛接受至关重要,尤其是在安全问题日益突出的情况下。例如,人们可能不愿意乘坐自动驾驶汽车,因为他们知道运行它的人工智能可能会被黑客入侵。提高信任度的一大障碍是,驱动人工智能的算法很容易受到此类攻击。

德克萨斯农工大学计算机科学与工程系助理教授 Samson Zhou 博士和卡内基梅隆大学计算机科学系教授 David P. Woodruff 博士希望增强大数据 AI 模型使用的算法以抵御攻击。大数据 AI 模型是可扩展的算法,专门用于处理和分析大量数据。

周和伍德拉夫距离创建完全能够抵御攻击的算法还有很长的路要走,但他们的目标是取得进展。

“为人们提供一种带有保证的算法绝对是一个长期目标,”伍德拉夫说。“我们希望能够说,‘我们向你保证,这种算法对对手来说是强大的’,这意味着无论你对这种算法进行多少次查询,它仍然会给你正确的答案,”伍德拉夫说。

周说:“当人们知道对手可能会导致汽车发生事故时,他们就不敢乘坐自动驾驶汽车了。我们希望我们的工作能够激发人们对算法的信心。”

Zhou 和 Woodruff 的研究重点是一种称为流式模型的大数据模型。使用流式模型,必须立即从数据中收集信息和见解,否则它们将会丢失,因为无法存储所有数据。流式模型的常见示例是向用户提供实时信息的应用程序,例如显示路线上公交车当前位置的公共交通应用程序。

创建安全算法的挑战

研究人员在尝试创建安全算法时面临的一个挑战是随机性。将算法视为 AI 的一组指令。这些指令中包含随机性以节省空间。然而,当包含随机性时,算法工程师无法完全了解算法的内部工作原理,从而使算法容易受到攻击。

“任何使用随机性的算法都可能受到攻击,因为攻击者通过与你的互动来了解你的随机性,”伍德拉夫说。“如果[攻击者]知道你的随机性,它就能找到一些东西来充实你的算法,迫使它失败。”

伍德拉夫将操纵算法比作操纵抛硬币。“你的算法中可能有一个抛硬币序列,这个序列对于解决大多数问题非常有用。但如果攻击者知道抛硬币的序列,它就能找到导致结果错误的正确输入,”伍德拉夫说。

攻击也有不同的类型。有时攻击者对算法的唯一了解就是它如何响应查询。在这种情况下,攻击者会根据算法之前的输出来制定未来的查询。这被称为黑盒攻击。当攻击者知道算法的整个状态、内部工作原理以及响应方式时,这就是白盒攻击。周和伍德拉夫希望防御这两种攻击。

“知道算法内部参数的攻击者看起来是更强大的对手,”周说。“但我们实际上能够证明,仍然可以采取一些有趣的措施来防御他们。”

未来研究

在创建一种能够抵御攻击的算法时,周和伍德拉夫计划在数学和理论计算机科学之间建立新的联系。他们还将从密码学(数据加密)领域寻找灵感。通过他们的研究,他们希望了解如何在保持效率的同时增强算法的防御能力。他们希望找出算法漏洞背后的原理。

周和伍德拉夫都知道,要证明一种算法能够抵御无限类型的攻击并且能够可靠地给出准确的答案是非常困难的。

“有时,设计算法来保证对抗鲁棒性是不可能的,”周说。“有时,如果没有足够的空间,就没有办法提高对抗鲁棒性。在这种情况下,我们应该停止尝试设计满足这些保证的算法,而是寻找解决这些问题的其他方法。”

周和伍德拉夫最终希望根据他们的工作撰写一本专著。

本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/349.html

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论