我们对人工智能的整个方法都是有缺陷的

当我们谈论人工智能时,我们通常关注一个指标:生产力。自当前科技时代开始以来,每项技术公告都使用了该指标。

回想我刚成为外部技术分析师时,在 Windows 95 上市前夕,人们认为它能大幅提高生产力,购买后一年内就能带来投资回报 (ROI)。但结果发现,在第一年,产品出现了很多问题,对生产力产生了负面而非正面的影响。

人工智能的投资回报率可能要差得多,具有讽刺意味的是,本世纪我们的许多问题不是缺乏生产力或性能,而是决策支持不佳。

上周,我参加了 Computex 的准备活动。在观看演示时,我注意到了一股熟悉的生产力暗流。我仍然担心,如果我们大幅提高速度,但又不提高相关决策的质量,我们就会以机器速度犯错误,而这些错误可能是无法避免的。

这周我们就来聊聊这个话题,最后以本周产品结束,也就是我刚刚乘坐去台湾的那家航空公司。这家航空公司比我通常乘坐的美联航好太多了,所以我想指出为什么这么多非美国航空公司比美国航空公司好太多了。

生产力与质量

我是 IBM 前员工。在 IBM 任职期间,我是参加 IBM 高管培训计划的少数人之一。所有员工都应遵循的原则之一就是质量至上。

在这方面,我上过的最难忘的课程不是 IBM 的,而是竞争情报专业人员协会 (SCIP) 的课程。该课程的重点是速度与方向。讲师认为,大多数公司在采用新流程和新技术时首先关注的是速度。

他认为,如果你不首先关注方向,你最终会以越来越快的速度走向错误的方向。如果你不首先关注确定目标,速度对你没有帮助。它会让事情变得更糟。

在 IBM 和西门子担任竞争分析师期间,我有过一段恼人的经历:提供决策支持时,我们的建议不仅遭到忽视,而且遭到激烈反对,最后却无人采纳。这导致我所供职的几个团队遭受了灾难性的损失,并最终破产。

原因是高管们宁愿表现得正确,而不是真正正确。一段时间后,我的部门被解散了(这是整个行业的趋势),因为高管们不喜欢在灾难性失败后被责备的尴尬,因为他们的“直觉”告诉他们,他们预定的方向一定更好,但事实却一再相反,他们忽视了有根据的建议。

在我停止公司内部工作并成为一名外部分析师之后,我惊讶地发现我的建议更有可能被采纳,因为高管们并不认为我的正确性会对他们的职业生涯构成威胁。

从公司内部来看,他们认为我是个风险。从外部来看,我并不危险,所以他们更愿意倾听并采取不同的策略,因为他们不觉得自己在与我竞争。

高管可以访问大量数据,从而做出更好的决策。然而,我仍然看到许多人做出的决策毫无根据,导致灾难性后果。

因此,人工智能应该专注于帮助企业做出更好的决策,只有这样它才应该专注于生产力和绩效。如果你只关注速度而不确保方向背后的决策是正确的,那么你很可能会更快地走上错误的方向,从而导致更频繁和更昂贵的错误。

决策挑战

从个人生活到职业生活,我们可以通过人工智能更快地做出决策,但这些决策的质量正在下降。如果你回顾微软和英特尔,这两家当前人工智能技术浪潮的主要支持者,你会发现,在它们存在的大部分时间里,尤其是本世纪,这些公司做出了错误的决策,导致它们失去了一位或多位首席执行官。

我的老朋友史蒂夫鲍尔默因一个又一个错误决定而受诅咒,我仍然认为这些错误决定很大程度上是支持他的人所致,而非他本人的问题。

这家伙在哈佛大学时是班上的尖子生,可以说是我见过的最聪明的人。Xbox 的成功归功于他。然而,在那之后,尽管微软的财务表现很出色,但他在 Zune、微软手机和雅虎方面却失败了,这严重影响了微软的估值,并导致他被解雇。

我和其他几位分析师最初被指派帮助他做出更好的决策。然而,我们几乎立刻就被排除在外了,尽管我写了一封又一封电子邮件,说如果他不提高决策质量,他就会被解雇。可悲的是,他只是对我的尝试感到愤怒。我仍然认为他的失败就是我自己的失败,这将困扰我一生。

这个问题与 IBM 的约翰·埃克斯 (John Akers) 的经历如出一辙,他身边的人都不肯让我们这些更接近问题的人了解情况。虽然我在 IBM 为消除公司问题所做的努力得到了回报,但像我这样的人(还有很多)的影响力却大打折扣,埃克斯丢掉了工作。这并不是因为他愚蠢或不听别人的意见。而是因为我们被那些听从他意见的高管们阻拦了,他们不想失去与这种渠道相关的地位。

因此,两位公司 CEO 成功所需的信息都被他们信任的人拒绝了。他们更注重地位和渠道,而不是确保他们所供职的公司取得成功。

人工智能决策问题有两个方面

首先,我们知道,尽管人工智能的成果令人印象深刻,但也非常不准确或不完整。《华尔街日报》刚刚评估了顶级人工智能产品,发现谷歌的 Gemini 和微软的 Copilot 质量最低,但也有例外,尽管它们应该是使用最广泛的。

此外,正如我上面指出的,即使这些系统准确度更高,考虑到过去的行为,高管们可能不会使用它们,他们更喜欢凭直觉而不是系统告诉他们的任何事情。虽然这可能会减少这些产品质量问题的影响,但结果是系统要么不能被信任,要么不会被信任。

当前的质量问题有助于支持和强化当前一代人工智能之前存在的不良行为,因此即使人工智能的质量问题得到纠正,它仍未充分发挥其推动企业和政府取得更大成功的潜力。

包起来

目前,我们对速度(生产力、性能)的需求远低于我们对提供这种好处的技术既值得信赖又值得信赖的需求。但即使我们解决了这个问题,论证理论也表明,这项技术不会用于更好的决策支持,因为我们通常无法将内部建议视为对我们的工作、地位和形象的威胁。

这种观点有一定道理,因为如果人们知道你的决定是基于人工智能的建议,他们最终会得出结论说你是多余的吗?

我们需要停止将生产力作为人工智能的首要目标,而是关注更高的质量和提供更好的决策支持,这样我们就不会被机器速度下的错误决策和建议所淹没。

然后,我们需要积极训练人们接受有效的建议,这将更有效地让我们以机器的速度前进,而不是被同样的速度下的错误决定所淹没。我们还需要奖励人们有效使用人工智能,而不是让他们觉得这种使用会危及他们的工作和事业。

人工智能可以帮助创造一个更美好的世界,但前提是它能够提供高质量的结果,并且我们利用这些结果来做出决策。

本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/596.html

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论