为什么苹果采用小模型方法来实现生成式人工智能

Apple Intelligence 比大型模型更加定制化,注重用户体验


自推出以来,围绕 ChatGPT、Gemini 和 Midjourney 等模型的最大疑问之一是它们将在我们的日常生活中扮演什么角色(如果有的话)。苹果正努力用自己的观点来回答这个问题,即Apple Intelligence ,它于本周在 WWDC 2024 上正式发布。

周一的发布会上,苹果公司以闪光灯为主角,这就是主题演讲的运作方式。当高级副总裁克雷格·费德里吉 (Craig Federighi) 没有借助好莱坞 (好吧,库比蒂诺) 的魔法跳伞或跑酷时,苹果公司决心证明其内部模型与竞争对手的性能完全一样。

这个问题目前尚无定论,因为测试版周一才发布,但该公司已经透露了其生成式人工智能方法的一些不同之处。首先也是最重要的就是范围。该领域许多最知名的公司都对其模型采取“越大越好”的方法。这些系统的目标是成为全球信息的一站式商店。

另一方面,苹果对这一类别的态度则更加务实。Apple Intelligence 是一种更定制化的生成式人工智能方法,专门以公司的不同操作系统为基础构建。这是一种非常苹果化的方法,因为它将无摩擦的用户体验放在首位。

从某种意义上说,Apple Intelligence 是一种品牌宣传活动,但从另一个角度来看,该公司更希望将生成式人工智能无缝融入操作系统。如果用户不了解这些系统背后的技术,这完全没问题,甚至可以说是更受欢迎。苹果产品一直以来都是这样运作的。

保持模型较小

实现这一目标的关键在于创建更小的模型:在专门为其操作系统用户所需的功能而设计的定制数据集上训练系统。目前尚不清楚这些模型的大小会对黑箱问题产生多大影响,但苹果认为,至少拥有更多针对特定主题的模型将增加系统做出特定决策的原因的透明度。

由于这些模型相对有限,苹果并不认为在提示系统总结文本时会出现大量变化。但最终,提示之间的差异取决于被总结的文本的长度。操作系统还具有反馈机制,用户可以向该机制报告生成式 AI 系统的问题。

虽然 Apple Intelligence 比大型模型更加专注,但它可以满足各种要求,这要归功于其专门用于不同任务和风格的“适配器”。但总体而言,Apple 的模型创建方法并不是“越大越好”,因为需要考虑尺寸、速度和计算能力等因素——尤其是在处理设备上的模型时。

ChatGPT、Gemini 及其他

考虑到 Apple 模型的关注点有限,向 OpenAI 的 ChatGPT 等第三方模型开放是有意义的。该公司专门针对 macOS/iOS 体验训练了其系统,因此会有大量信息超出其范围。如果系统认为第三方应用程序更适合提供响应,系统会提示您是否要对外共享该信息。如果您没有收到这样的提示,则表示请求正在使用 Apple 的内部模型进行处理。

这应该与Apple 合作的所有外部模型(包括 Google Gemini)的功能相同。这是系统以这种方式引起人们对其使用生成式 AI 的关注的罕见情况之一。做出这一决定的部分原因是为了消除任何隐私问题。在收集和训练用户数据方面,每家公司都有不同的标准。

要求用户每次都选择加入可以减轻苹果的部分负担,尽管这确实会给整个过程带来一些阻力。你也可以选择在整个系统范围内不使用第三方平台,但这样做会限制操作系统/Siri 可以访问的数据量。但是,你不能一下子选择退出 Apple Intelligence。相反,你必须逐个功能地选择退出。

私有云计算

另一方面,系统是在设备上处理特定查询,还是通过具有私有云计算的远程服务器处理,目前还不清楚。苹果的理念是,这种披露是不必要的,因为它对服务器的隐私标准与设备相同,甚至包括运行设备的第一方芯片。

要确定查询是在设备上还是在设备外进行管理,一种方法是断开计算机与互联网的连接。如果问题需要云计算来解决,但计算机找不到网络,则会抛出错误,指出它无法完成请求的操作。

苹果正在详细说明哪些操作需要基于云的处理。这里面有几个因素在起作用,而这些系统不断变化的性质意味着今天可能需要云计算的事情明天可能就可以在设备上完成。设备上的计算并不总是更快的选择,因为速度是 Apple Intelligence 在确定在哪里处理提示时考虑的参数之一。

但是,某些操作始终会在设备上执行。其中最值得注意的是 Image Playground,因为完整的扩散模型存储在本地。Apple 对该模型进行了调整,使其能够生成三种不同风格的图像:动画、插图和草图。动画风格看起来很像另一家史蒂夫·乔布斯创立的公司。同样,文本生成目前有三种风格:友好、专业和简洁。

即便在早期测试阶段,Image Playground 的生成速度也非常快,通常只需几秒钟。至于生成人物图像时的包容性问题,系统要求你输入具体信息,而不是简单地猜测种族等信息。

苹果将如何处理数据集

苹果的模型是在授权数据集和抓取公开信息的基础上进行训练的。后者是通过AppleBot实现的。该公司的网络爬虫已经存在了一段时间,为 Spotlight、Siri 和 Safari 等应用程序提供上下文数据。该爬虫有一个针对发布者的现有选择退出功能。

苹果指出:“借助 Applebot-Extended,网络出版商可以选择不将其网站内容用于训练苹果的基础模型,该模型为苹果产品(包括 Apple Intelligence、服务和开发者工具)的生成式 AI 功能提供支持。”

这是通过在网站代码中包含提示来实现的。随着 Apple Intelligence 的出现,该公司推出了第二个提示,允许网站包含在搜索结果中,但排除在生成 AI 模型训练之外。

负责任的人工智能

Apple 在 WWDC 第一天发布了一份白皮书,标题为“介绍 Apple 的设备和服务器基础模型”。除其他内容外,它还强调了管理公司 AI 模型的原则。特别是,Apple 强调了四件事:

  1. “为用户提供智能工具:我们确定可以负责任地使用人工智能的领域,以创建满足特定用户需求的工具。我们尊重用户选择如何使用这些工具来实现他们的目标。”

  2. “代表我们的用户:我们打造高度个性化的产品,旨在真实地代表全球用户。我们不断努力避免在我们的人工智能工具和模型中延续刻板印象和系统偏见。”

  3. “精心设计:我们在流程的每个阶段都采取预防措施,包括设计、模型训练、功能开发和质量评估,以确定我们的人工智能工具可能被滥用或导致潜在危害的方式。我们将在用户反馈的帮助下不断主动改进我们的人工智能工具。”

  4. “保护隐私:我们利用强大的设备处理能力和突破性的基础设施(如私有云计算)保护用户的隐私。在训练基础模型时,我们不会使用用户的私人个人数据或用户互动。”

Apple 对基础模型的定制方法使系统能够根据用户体验进行量身定制。自第一台 Mac 问世以来,该公司就一直采用这种用户体验至上的方法。提供尽可能顺畅的体验对用户有益,但不应以牺牲隐私为代价。

随着目前的操作系统测试版在今年全面上市,这将是该公司必须应对的一项艰难的平衡行为。理想的方法是提供尽可能多(或尽可能少)的终端用户需要的信息。当然,会有很多人不关心查询是在机器上执行还是在云端执行。他们满足于让系统默认使用最准确、最有效的方法。

对于隐私倡导者和其他对这些细节感兴趣的人,苹果应该努力实现尽可能多的用户透明度——更不用说对于那些可能不愿意将自己的内容来源用于训练这些模型的出版商来说,透明度也很重要。在某些方面,黑箱问题目前是不可避免的,但如果可以提供透明度,就应该根据用户的要求提供。


本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/588.html

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论