手记

WTF Quora:一个平台怎么就会自噬了

照片由 Rubaitul AzadUnsplash 拍摄

Quora 会是一个分享知识和专长的地方,这里,人们可以提出各种问题并获得来自博学社区的深思熟虑的答案。

类似雅虎问答,但更加适合科技工作者和格拉德威尔式的知识分子。

成立于2009年的Quora由两名前Facebook员工创立,很快便流行起来,其特色在于汇集了众多硅谷名人、常春藤院校学者、行业专家以及热衷讨论各种话题的业余爱好者的回答,从日常生活到深奥理论无所不谈。

到2014年为止,它的价值超过了9亿美元。

它的成功在于这样一个理念:平台不仅要连接我们和信息,还要连接我们和那些拥有这些信息的人。

在Quora上,你不仅能学到量子物理或伯罗奔尼撒战争的历史,还能通过真正的专家们在平台上留下的个人笔记和回复来深入了解这些话题。

Quora 的初衷是创建一个互联网的理想社区,在这里人们会利他地聚集,参与有趣的讨论和知识分享交流。

截至2024年为止,它——姑且这么说吧——算是失败了。

为什么?

  1. 数字营销和增长黑客所具有的巨大的破坏力量。
  2. 投资者和用户曾经期待的,能将平台推向新高度的人工智能技术。

这一切开始时还算简单。随着社区用户数量增长到数百万,公司安装了算法系统来帮助整理和优先显示问题及答案。

此前,最好的回答是通过一个强大的用户点赞系统脱颖而出——这种类似于Reddit的用户点赞系统的方法——而现在,算法在决定哪些内容被展示并推广方面起了决定性作用。

有帮助且精心准备的回答仍然会被置顶,但AI开始表现出一些小毛病。更极端的回答开始获得更多关注。

用户发现他们可以通过写得更煽情和卖力来利用系统漏洞,即使内容有点不足。

渐渐地,这些算法正在改变社区的动态和文化。

随着Quora利用AI不断改进,情况变得越来越奇怪。一些不择手段的人——那些潜伏在各平台背后的数字营销者和增长黑客——发现可以利用这种AI系统。

他们可以在答案中塞满SEO关键词和夸大其词,从而误导系统大量推送他们的内容。

此外,他们还发现AI难以区分人工撰写的文本和机器生成的内容——这意味着用户可以将问题输入语言模型,直接将输出粘贴到Quora上,然后看着它获得大量的赞和关注。几乎一夜之间,该网站迅速被大量的低质量和无意义的AI生成文本淹没。

一些Quora上最受喜爱的贡献者,尤其是学者和专家,本应被优先考虑,但他们开始逐渐离去。

尽管人工智能明显偏爱那些自信的陈述句作答,平台上的许多顶尖用户却被这一点吓退了。他们一直认为自己的角色是补充背景信息,而不是高高在上地发号施令。

担心被算法误解或害怕被算法曲解,高质量的贡献者纷纷退出。留下来的人则无奈地看到,他们深思熟虑的回答和细腻的观点被淹没在不断增加的无营养内容中——虽然这些内容并非完全错误,但确实缺乏真正的价值。

随着 Quora 的麻烦越来越多,它的领导层发现自己陷入了讽刺的困境之中。

一家以庆祝知识和专业技能而闻名的公司,现在却陷入了麻烦,因为这些机器无法区分信息与智慧,也无法区分真实的文本和模仿事实性书写模式的文本。

在他们不断追求参与度的过程中,算法推送了那些“赚取”点击和观看的内容,但这些内容逐渐削弱了曾定义Quora的知识性和深度文化。通过追求短期指标,该公司正危及其作为信息来源的长期可持续性,在一个充斥着噪音的世界里。

Quora最终投降的表现是推出了其聊天机器人平台Poe。Poe这个名字虚张声势地(而且令人痛苦地)缩写为“开放探索平台”,该平台集成了来自OpenAI、Anthropic、Meta和谷歌等公司的AI模型。

用户现在可以与这些聊天机器人进行来回对话,即时获得他们查询的答案。虽然这被描述为“方便和易用”的一大进步,但对许多人而言,这却是曾一度有希望的、以人为核心的平台的最后致命一击。

由打着民粹主义旗号的投资者如Andreessen Horowitz提供大量资金支持的Poe的推出,表明Quora在多大程度上屈服于人工智能潮流。曾经自夸为人类生成内容的家园的平台,现在已经成为人工智能生成回复的农场。Poe的盈利功能,允许机器人创作者通过订阅和按消息收费赚钱,这样的做法鼓励了人工智能生成内容的泛滥,而牺牲了真实的人际互动。

因此,我们找到了Quora衰落的真正原因背后——以及这篇帖子的警示意义。在将越来越多的社区的运作机制和动态外包给人工智能系统——无论这些系统多么先进,公司都——公司没有意识到AI的局限性,反而被其宣称的能力所迷惑。

尽管语言模型在识别文本模式和预测序列中的下一个单词方面非常强大,但它们在识别人类专业知识的标志(如推理、合理的论据和实质性的知识)方面却相当差。这种缺陷已经导致平台失败。正如一位用户所说,Quora 已经从“专家议会变成了机器人代写的内容农场”。

Quora并不孤单,在这一点上,像YouTube和Facebook这样的平台也在努力应对如何将AI驱动的推荐和内容审核的巨大潜力与这些系统无法像人类一样自然地区分权威信息、误导信息、无意义的发帖(shitposting)、犀利评论或观点和吸引眼球的煽动性内容之间的不安现实相协调。

在最好情况下,这些算法可以带来令人愉快的惊喜——以拓宽我们的视野并丰富我们的理解。在最糟糕的情况下,它们会创造扭曲的激励并奖励错误的行为,污染平台的文化并侵蚀社区的信任。

但是,让我们回到Quora。随着这些令人沮丧的趋势不断加剧——专家参与度越来越低、内容质量越来越差、社区凝聚力逐渐减弱——用户增长先是停滞不前,接着急剧下降。

在我的朋友圈里,留下来的人花在该网站上的时间越来越少,被日益空洞和自娱自乐的噪音所排斥。

新用户在遇到Quora时,未必会对看到的肤浅且重复的内容留下好印象。

这种双重打击——老用户流失,新用户注册却停滞不前——已将Quora带入一个可能再也无法挽回的下滑漩涡。实际上,这更像是一次自摆乌龙,堪称精彩。

到了2024年,Quora 已经变成了一个空壳,吸引的真正热爱平台的用户已经寥寥无几。Quora 曾短暂地展示了互联网可以拥有实质内容的可能性——而随后,就像它出现得一样快,那个愿景仿佛瞬间就被交易掉了。

作为一个前Quora用户,我心中有一个不安的问题:在我们盲目迈向AI主导的未来时,是否能让我们的算法工具具备分辨力和智慧,而不仅仅是为了浅层参与?

我们如何在面对这样的机器以及那些会利用和滥用这些系统的投机者时,保护脆弱的专业生态系统?

对于所有LLM的能力,它们仍然缺乏一些基本能力,并无法完全替代人类的参与、沟通和思考。曾经可能存在的Quora已经不再存在了。

但其他目光炯炯的技术创始人也应该意识到,建立重视内容而非肤浅无聊互动的在线社区所面临的难度和重要性,以及当他们放弃这一切时,我们可能会失去极其珍贵的人类智慧。

加入成千上万的其他读者、创作者和思考者,订阅 @Westenberg — 我在这里写关于科技、人类和哲学的内容。
@Westenberg🍕 技术 + 经济 + 人类 www.joanwestenberg.com
0人推荐
随时随地看视频
慕课网APP