思科:超过四分之一的企业已禁止使用人工智能

思科最新研究发现,超过四分之一的组织因隐私和数据安全风险而禁止使用人工智能

超过四分之一的组织已经禁止使用生成式人工智能 (Gen AI),这凸显了人们对 Gen AI 日益增长的隐私担忧以及组织在使用人工智能方面面临的信任挑战。

思科2024 年数据隐私基准研究是在有关不良行为者可能利用 Gen AI 的讨论正在进行的背景下发布的 - ISACA 早期的一份报告显示,99% 的人在某种程度上担心这项技术对其业务的影响。

思科报告中最受关注的问题包括对组织的法律和知识产权的威胁(69%),以及向公众或竞争对手泄露信息的风险(68%)。

大多数组织表示,他们已经意识到这些风险,并正在实施控制措施以限制风险。近三分之二(63%)的受访者表示,他们已经对可以输入的数据设置了限制,61% 的受访者对员工可以使用哪些 Gen AI 工具进行了限制,27% 的受访者表示,他们的组织暂时完全禁止使用 Gen AI 应用程序。

思科首席法律官Dev Stahlkopf评论道:“组织将 Gen AI 视为一种完全不同的技术,需要考虑新的挑战。超过 90% 的受访者认为 Gen AI 需要新技术来管理数据和风险。这就是周到的治理发挥作用的地方。维护客户信任取决于此。”

思科报告强调人工智能和透明度进展缓慢

如今,消费者担心人工智能会涉及他们的数据,但 91% 的组织认识到他们需要采取更多措施来向客户保证他们的数据仅用于人工智能的预期和合法目的。 

组织在建立消费者信任方面的优先事项与个人有所不同。消费者认为,他们的首要任务是获得有关其数据具体如何使用的明确信息,以及不让其数据被出售用于营销目的。与此同时,企业认为,他们的首要任务是遵守隐私法 (25%) 和避免数据泄露 (23%)。思科的报告建议,更多地关注透明度将会有所帮助,尤其是对于可能难以理解算法如何做出决策的人工智能应用而言。

隐私和信任:外部认证和法律的作用

企业认识到需要向客户保证他们的数据是如何被使用的,98% 的企业表示外部隐私认证是他们做出购买决策的重要因素。

尽管隐私法可能会给组织带来成本和要求,但 80% 的受访者表示隐私法对他们产生了积极影响,只有 6% 的受访者表示产生了负面影响。强有力的隐私法规可以增强消费者对他们选择共享数据的组织的信心和信任。

在过去五年中,隐私支出增加了一倍多,收益呈上升趋势,回报仍然强劲。今年,95% 的受访者表示隐私收益超过其成本,平均每个组织报告的隐私收益是其支出的 1.6 倍。此外,80% 的受访者表示从隐私投资中获得了显著的“忠诚度和信任度”收益,而对于隐私最成熟的组织来说,这一比例甚至更高(92%)。

2023 年,拥有 10,000 多名员工的大型组织比去年增加了 7-8% 的隐私支出。然而,规模较小的组织投资较少,例如,拥有 50-249 名员工的企业平均将隐私投资减少了四分之一。

思科副总裁兼首席隐私官Harvey Jang解释道:“94% 的受访者表示,如果公司没有充分保护数据,客户就不会购买他们的产品。他们正在寻找确凿的证据来证明公司值得信赖。隐私已经与客户的信任和忠诚度密不可分。在人工智能时代,情况更是如此,投资隐私可以让公司更好地以合乎道德和负责任的方式利用人工智能。”

本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/179.html

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论