Meta 称生成式人工智能欺骗目前已得到控制

社交媒体巨头 Meta 表示,尽管存在广泛担忧,但其阻止通过不断改进的生成式人工智能发起的协同虚假宣传活动的努力正在发挥作用。

Meta 对其平台上的“协同虚假行为”进行了最新研究,与此同时,人们越来越担心生成式人工智能将被用来在世界各地、尤其是在美国即将举行的选举中欺骗或迷惑人们。

Meta 威胁破坏政策主管戴维·阿格拉诺维奇 (David Agranovich) 在周三的新闻发布会上表示:“到目前为止,我们看到的是,我们行业现有的防御措施,包括我们在应对对抗性威胁时关注行为而不是内容,已经应用并且看起来很有效。”

“我们还没有看到生成式人工智能以非常复杂的方式被使用,但我们知道,随着这项技术的变化,这些网络将不断发展其策略。”

多年来,Facebook 一直被指责被用作传播选举虚假信息的强大平台。

俄罗斯特工利用 Facebook 和其他美国社交媒体在唐纳德·特朗普赢得的 2016 年大选中挑起政治紧张局势。欧盟目前正在调查 Meta 的 Facebook 和 Instagram,指控其未能在 6 月欧盟选举前打击虚假信息。

但现在专家们也担心,由于可以轻松使用 ChatGPT 或 Dall-E 图像生成器等生成式 AI 工具在几秒钟内按需生成内容,Meta 应用程序上会出现恶意行为者提供的前所未有的大量虚假信息。

报道称,Meta 表示,它曾发现“威胁行为者”利用人工智能制作虚假照片、视频和文字,但没有发现政客的真实图像。

报告指出,生成式人工智能已被用于为 Meta 系列应用程序中的虚假账户制作个人资料图片,而来自中国的一个欺骗网络显然使用该技术为一个名为“K 行动”的虚构亲锡克教激进运动制作海报。

与此同时,据 Meta 报道,一家总部位于以色列的网络在媒体组织和公众人物的 Facebook 页面上发布了看似由人工智能生成的有关中东政治的评论。

Meta 将它们比作垃圾邮件,并表示这些评论(其中一些来自美国立法者的页面)受到了真实用户发布的回复的批评,他们称这些评论是宣传。

Meta 将这次活动归功于一家位于特拉维夫的政治营销公司。

Meta 威胁调查主管 Mike Dvilyanski 表示:“这是一个令人兴奋的领域。到目前为止,我们还没有看到对手破坏性地使用生成式人工智能工具。”

报道还显示,一个名为“Doppelganger”的与俄罗斯有关的组织一直在试图利用 Meta 应用破坏对乌克兰的支持,但这一行为在该平台上遭到了挫败。

Meta 称:“在过去 20 个月里,Doppelganger 已经将其提升到了一个新的水平,但在社交媒体上吸引真实观众方面仍然很粗糙,而且基本上是无效的。”

报告显示,Meta 还删除了少量来自中国、针对澳大利亚、加拿大、印度、巴基斯坦和其他国家的锡克教社区的虚假 Facebook 和 Instagram 账户。

这些虚假账户上的帖子呼吁支持锡克教的抗议。

本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/343.html

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论