OpenAI 称政府支持的行为者利用其人工智能进行虚假宣传

ChatGPT 背后的公司 OpenAI 周四表示,过去三个月内,它已经破坏了五起试图利用其人工智能模型进行欺骗活动的秘密影响行动。

OpenAI 在一篇博客文章中表示,被破坏的活动源自俄罗斯、中国、伊朗和一家位于以色列的私人公司。

威胁行为者试图利用 OpenAI 强大的语言模型来执行生成评论、文章、社交媒体资料以及调试机器人和网站代码等任务。

该公司由首席执行官萨姆·奥特曼 (Sam Altman) 领导,表示这些业务“似乎并没有从我们服务的受众参与度或覆盖范围的显著提升中获益”。

OpenAI 等公司受到密切关注,因为人们担心 ChatGPT 或图像生成器 Dall-E 等应用程序可以在几秒钟内生成大量欺骗性内容。

这一问题尤其令人担忧,因为全球各地即将举行重大选举,而俄罗斯、中国和伊朗等国家都曾在投票日前利用秘密社交媒体活动煽动紧张局势。

一次被扰乱的行动被称为“糟糕的语法”,是一次此前未报道过的俄罗斯行动,其目标是乌克兰、摩尔多瓦、波罗的海国家和美国。

它使用 OpenAI 模型和工具在 Telegram 上用俄语和英语发表简短的政治评论。

著名的俄罗斯“Doppelganger”行动,就采用了OpenAI的人工智能,在X等平台上生成英语、法语、德语、意大利语和波兰语等语言的评论。

OpenAI 还查获了中国的“Spamouflage”影响力行动,该行动滥用其模型来研究社交媒体、生成多语言文本,并为之前未报道的 revealscum.com 等网站调试代码。

伊朗组织“国际虚拟媒体联盟”因使用 OpenAI 在伊朗国家相关网站上创建文章、标题和内容而受到干扰。

此外,OpenAI 还扰乱了一家名为 STOIC 的以色列商业公司,该公司似乎使用其模型在 Instagram、Facebook、Twitter 及其附属网站上生成内容。

本周早些时候,Facebook 所有者 Meta 也对这一活动进行了标记。

OpenAI 表示,这些操作发布在 Twitter、Telegram、Facebook 和 Medium 等平台上,“但没有一个能够吸引大量受众”。

该公司在报告中概述了人工智能利用的趋势,例如以更少的错误生成大量文本/图像、混合人工智能和传统内容、以及通过人工智能回复伪造参与。

OpenAI 表示,其模型中内置的协作、情报共享和安全措施导致了这些中断。

本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/338.html

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论