感谢 Joshua Hoehne 拍摄的照片,图片来自 Unsplash
名为DeepSeek的中国公司最近发布的大型语言模型DeepSeek-R1的公开亮相,对于那些关注人工智能领域文化和社会现象的人来说,是一件非常有趣的事情。有迹象表明,训练R1的成本可能只是训练ChatGPT(或他们最近发布的任何模型)成本的一小部分。这里我不想深入讨论这个问题——许多有见地的作者和评论家已对此发表了评论,探讨了DeepSeek-R1到底是什么,以及在训练过程中发生了什么。
目前我更感兴趣的是这条新闻如何改变了人工智能领域的部分势头。Nvidia和其他相关股票在DeepSeek-R1的消息发布后大幅下跌,主要是因为它不需要最新的GPU进行训练,并且通过更高效的训练,它所需的电力比OpenAI的模型要少。我之前一直在思考大型生成式人工智能所面临的文化逆反问题,而这种情况为人们批评生成式人工智能公司实践和承诺提供了更多空间。
我们目前处于什么阶段或情况,针对生成式AI在商业或技术领域的批评声音?这些批评来自哪里,为什么会出现这种声音?
学术流派我认为最有趣的两个经常重叠的批评视角是,首先是社会公益的角度,其次是实践角度。从社会公益的角度来看,关于生成式AI作为业务和行业的批评有很多,我在我的文章中讨论过很多这些问题(比如这篇文章)。使生成式AI变得无处不在会带来巨大的代价,从环境到经济,不一而足。
实际上,最简单的方法可能是将其归结为“这项技术并没有像我们承诺的那样运作”。生成式人工智能对我们撒谎,或者说是“幻觉”,而且在许多我们急需技术帮助的任务上表现糟糕。让我们相信可以信任这项技术,但它未能达到预期,同时又被用于合成儿童色情材料(CSAM)和深度伪造等令人痛苦不堪、犯罪的行为,来破坏民主。
所以当我们一起审视这些内容时,你可以提出一个相当有力的论点:这项技术远远没有达到大家吹嘘的水平,反而为了这种表现得相当不给力的表现,我们牺牲了电力、水资源、气候、资金、文化以及工作岗位。用一句轻描淡写的话来说,这根本划不来!
我喜欢给这个空间增添一点微妙的色彩,因为我认为当我们接受生成式AI所能做的事情以及它可能带来的危害的限制,不再进行过度炒作时,我们就可以找到一个相对平衡的中间地带。除非结果真的、真的非常有价值,否则我认为我们不应该为训练和推理这些模型付出高昂的代价。开发用于医学研究的新分子?也许可以。帮助孩子们(拙劣地)作弊应付作业?不,谢谢。甚至我不确定是否值得为了让我在工作中稍微高效一点编写代码而付出外部代价,除非我在做真正有价值的事情。我们必须要诚实且现实地面对创造和使用这项技术的真实成本。
我们是怎么到这一步的那么,说到这,我想深入分析一下这种局面是如何形成的。我在2023年9月就写过,机器学习在公众认知方面存在问题,而在生成式AI的情况下,我认为事实已经证明了这一点。具体来说,如果人们没有对大规模语言模型能做什么和不能做什么有现实的期望和理解,他们就会失去兴趣,随之而来的就是反作用。
“我的論點大致如下:
1. 人們天生並未準備好理解和使用機器學習工具。
2. 沒有理解這些工具,一些人可能會避免使用或不相信這些工具。
3. 更糟糕的是,一些個體可能會因錯誤信息而誤用這些工具,導致負面後果。
4. 經歷了誤用後的負面後果後,人們可能會變得不願採用能夠提升他們生活和社區的未來機器學習工具。”
我在《機器學習的公眾認知問題》一文中,在2023年9月提到
所以说,发生了什么?生成式AI行业一头栽进了这个坑,我们现在正在经历它的后果。
生成式AI应用并没有达到人们的期望。问题的一部分是,生成式AI真的无法做到所有炒作所声称的。一个大型语言模型无法可靠地用于回答问题,因为它只是一个生成句子中下一个可能单词的工具。但它不是一台“事实机器”。我们看到各种各样的承诺忽略了这些限制,科技公司正在将生成式AI功能强制添加到你能想到的各种软件中。人们不喜欢微软的Clippy,因为它不好用,而且他们不希望被迫使用——可以说,他们正在用改进的版本做同样的事情,我们可以看到,一些人仍然可以理解地对此感到不满。
当有人今天向一个LLM询问某个本地杂货店当前食材价格时,这个模型绝对无法准确可靠地回答。这是因为模型无法获取这些价格的真实数据。模型可能偶然猜到一包胡萝卜在Publix的价格是1.99美元,但这纯属偶然。将来,通过将这些模型组合成代理形式,我们有可能开发出能够准确完成这类任务的窄模型,但现在这完全是不靠谱的。
但人们今天确实在问这些大型语言模型这些问题!而当他们到了实体店时,他们对被一个他们认为是万能解答机的技术所欺骗感到非常失望。如果你是 OpenAI 或者 Anthropic,你可能会觉得无所谓,因为如果那个人每月付你费用,那么你已经收到了钱。如果没有付费,那么你也增加了一个用户数量,而这就算增长。
然而,这实际上是一个重大的商业问题。当你的产品以这种明显、可预测(不可避免!)的方式失败时,你正在逐渐烧毁用户与你产品之间的桥梁。它可能不会一次性烧毁,但它正在逐渐削弱用户对你的产品的信任感,你只有几次尝试,之后某人可能会放弃并从一个用户变成一个批评者。在生成式AI的情况下,我认为你根本没有多少次尝试。此外,一种模式的失败可能会让人们对你这种技术的所有应用都失去信任。那个用户几年后还会信任你,相信你将LLM后台连接到实时价格API,并能准确返回杂货店的价格吗?我对此不太相信。那个用户甚至不会让你的模型再去帮忙修订发给同事的邮件,因为它在其他任务上已经让他们失望了。
据我所见,科技公司认为他们可以迫使人们接受生成式AI已成为他们所有软件的一部分,无论是否有效。也许他们可以做到这一点,但我认为这其实是一个自毁的策略。用户可能会被迫接受现状,但他们对技术和你的品牌不会有好感。这种勉强接受的态度不是你希望品牌激发的用户精神!
硅谷跟这事有啥关系呢?你可能会想,嗯,这很清楚——我们可以减少软件中的生成式AI功能,转而将其用于能给用户留下深刻印象的任务上。用户会有不错的体验,随着技术的进步和成熟,我们将根据需要适时地添加更多功能。这种想法在某种程度上是有道理的(尽管如我之前所说,这种外部成本对我们社会和社区来说将极其高昂)。
然而,我认为大型生成式AI公司真的做不来这件事,原因如下。技术巨头们已经在这项技术的研发和改进上投入了巨额资金——从投资开发这种技术的公司,到建设发电厂和数据中心,再到游说以规避版权法律,已经投入了数千亿美元,未来还将有更多投入。
在科技行业,盈利预期与其他行业有很大的不同。一家风险投资支持的软件初创企业需要实现10到100倍的投资回报(视阶段而定)才能看起来非常成功。因此,科技投资者会推着公司冒险,不管明说还是暗指,以实现更高的回报。这逐渐演变成我们所说的“泡沫”——估值逐渐脱离了实际经济的可能性,估值越来越高,却永远无法落实。正如格尔里特·德文克在《华盛顿邮报》中提到的,“华尔街分析师预计,到2026年,大型科技公司每年将花费大约600亿美元用于开发人工智能模型,但仅从人工智能中每年获得大约200亿美元的收入……风险资本家还向数千家人工智能初创公司投入了数十亿美元。人工智能热潮帮助推动了2024年第二季度风险投资者对美国初创公司的556亿美元投资,这是两年来的单季最高额,根据风险资本数据公司PitchBook的数据。”
鉴于投入了数十亿,确实有充分的论据认为,到目前为止在开发生成式人工智能上所投入的资金是无法通过回报来匹配的。这里赚的钱其实并不多,与已经投入的资金相比更是如此。不过,公司肯定还是会尝试。我认为这就是为什么我们看到生成式人工智能被插入到各种可能并不特别有用、有效或受欢迎的场景中的原因之一。某种程度上来说,“我们已经在这个技术上投入了这么多钱,所以我们必须找到一种方法来推销它”就是这种思路。同时记住,为了使技术变得更好,进一步提升,投资还在继续,但如今大型语言模型的进步非常缓慢且渐进的。
接下来去哪儿?生成式AI工具并未证明对人们的生活至关重要,因此经济上并没有达到预期的效果,使产品变得可用并说服人们购买。因此,我们看到公司转向了“功能”模型的生成式AI,正如我在2024年8月的文章中提出的理论一样(https://medium.com/towards-data-science/economics-of-generative-ai-75f550288097)。然而,这种方法采取了非常强硬的手法,例如微软将生成式AI捆绑到Office365中,并强制用户接受新功能和随之增加的价格。直到最近我才意识到公众形象问题与功能与产品模型之间的区别——但现在我们可以看到这两者是相互交织的。向人们提供一个存在功能问题的工具,然后对他们进行额外收费,这对这些公司来说仍然是一个问题。也许当某件东西对某个任务根本不起作用时,它既不是产品也不是功能?如果事实证明是这样的话,那么投资生成式AI的人将面临真正的难题,因此,无论这些功能是否好用,公司都在致力于开发生成式AI功能。
我会密切关注并充满兴趣地观察这一领域的发展。我不期待生成式AI功能会有重大突破,不过根据DeepSeek的发展情况,我们可能会看到一些效率上的提升,至少在训练过程中。如果公司能够听取用户的意见并调整方向,专注于真正能发挥生成式AI优势的应用,他们或许能更好地应对反噬,无论结果好坏。然而,而在我看来,这种做法与他们面临的迫切盈利需求极不匹配,几乎不可能兼容。在此过程中,我们很可能会浪费大量资源在一些愚蠢的应用上,而不是将精力集中在真正值得投入的生成式AI应用上。
在我的个人主页上www.stephaniekirmer.com阅读更多我的文章。
更多阅读资料https://www.bbc.com/news/articles/c5yv5976z9po (点击这里查看原文)
https://www.cnbc.com/2025/01/27/nvidia-sheds-almost-600-billion-in-market-cap-biggest-drop-ever.html
https://medium.com/towards-data-science/environmental-implications-of-the-ai-boom-279300a24184 这篇文章探讨了AI热潮对环境的影响。
https://hbr.org/2023/06/the-ai-hype-cycle-is-distracting-companies
https://www.theverge.com/2025/1/16/24345051/microsoft-365-personal-family-copilot-office-ai-price-rises - 微软365个人和家庭版Copilot办公AI价格上升的报道
OpenAI 正在洽谈一轮投资,估值可能达到 3400 亿美元,据《华尔街日报》报道。
https://www.cnn.com/2025/01/21/tech/openai-oracle-softbank-trump-ai-investment/index.html
这篇报道来自华盛顿邮报,讨论了AI泡沫以及大型科技公司的股票情况,尤其是高盛。https://www.washingtonpost.com/technology/2024/07/24/ai-bubble-big-tech-stocks-goldman-sachs/