与一个60瓦灯泡亮起三分钟所需的电量相当,这是GPT在进行一次互动时消耗的电力。
那么,谁在“幻想”呢?
我的一位同事,毫无讽刺之意地宣称,随着AI的崛起,高中教育将在五年内变得不再必要。他预测,到2029年,我们将生活在一个乌托邦式的社会,摆脱了繁重的劳动。这一预测受到了Ray Kurzweil关于“AI奇点”的理论的启发,描绘了一个充满乌托邦式承诺的未来。
对此,我愿意打赌。我认为,从ChatGPT-4的“幻觉”和意外行为发展到一个无需自己动手洗碗的世界,可能需要的时间远不止五年,甚至可能超过25年。
GenAI面临着三个难以解决的棘手问题。如果有人告诉你这些问题终将被解决,你应该明白,他们要么对所谈论的内容一无所知,要么就是在推销一些并不存在的东西。他们生活在一个由希望和信念构建的世界里,这个世界曾让我们相信加密货币和比特币将取代所有银行,汽车将在五年内实现完全自动驾驶,以及元宇宙将取代大多数人的现实生活。他们现在试图吸引你的注意力和参与,以便在你上钩后,他们可以提高价格,在市场崩溃之前从你那里获利。
三个无法解决的现实问题:
幻觉
地球上既没有足够的计算能力,也没有足够的训练数据来解决幻觉问题。GenAI可能会生成事实不正确或无意义的输出,这使得它在需要高准确性的关键任务中变得不可靠。根据Google CEO Sundar Pichai的说法,幻觉是GenAI的“固有特性”,这意味着模型开发者只能期望减少幻觉可能带来的危害,而无法完全消除它们。
非确定性输出
GenAI本质上是非确定性的,它是一个基于数十亿标记的概率引擎,通过实时计算和百分比形成和重组输出。这种非确定性特质意味着AI的回应可能会有很大差异,这对软件开发、测试、科学分析或任何需要一致性的领域来说都是一个挑战。例如,利用AI确定测试移动应用特定功能的最佳方法可能会产生一个不错的结果,然而,即使你再次输入相同的提示,也不能保证会得到相同的结果——这就造成了问题性的变异性。
标记补贴
标记是AI难题中一个尚未被充分理解的部分。简单来说,每次你提示一个LLM,你的查询会被分解为“标记”,这些标记是你得到的回应的种子——回应也是由标记组成的——你会为每个请求和回应中的每个标记支付不到一美分的费用。
投资于GenAI生态系统的数千亿美元中的很大一部分直接用于降低这些成本,以推动广泛的采用。例如,ChatGPT每天约产生40万美元的收入,但系统的运营成本需要额外的70万美元投资补贴才能维持运转。在经济学中,这被称为“亏损领袖定价”——还记得2008年Uber有多便宜吗?你有没有注意到,当它变得普及时,现在的价格已经和出租车一样贵了?将同样的原理应用于Google、OpenAI、Microsoft和Elon Musk之间的AI竞赛,你我可能会开始担心,当他们决定开始盈利时,局面会变得如何。
实际的工作效果
我最近编写了一个脚本,用于从我们的CI/CD管道中提取数据并上传到数据湖中。在ChatGPT的帮助下,原本需要我那些生疏的Python技能花费八到十小时的工作,最终只用了不到两小时——效率提高了80%!只要我不追求每次的答案都完全相同,并且仔细检查它的输出,ChatGPT就是我日常工作中值得信赖的伙伴。
GenAI在帮助我进行头脑风暴、为我提供教程或快速学习一个非常具体的主题,以及起草一封困难的电子邮件时非常擅长。未来这些方面可能会有些微的改进,并在未来几年作为我能力的延伸发挥作用。对我来说,这已经足够好,并且也为投入大量精力开发这些模型提供了合理的理由。
结论
虽然GenAI可以帮助完成一些有限的任务,但它并不值得我们重新评估人类本质,进而导致数万亿美元的投入。那些在AI方面运用得最好的公司,往往是那些自然处理灰色地带的公司——比如Grammarly或JetBrains。这些产品非常有用,因为它们运作的环境中,人们自然会交叉检查答案,或者那里本来就有多条通向解决方案的路径。
我认为,我们在大型语言模型上的投资——无论是时间、金钱、人力、能源,还是无尽的期望——已经远远超过了我们可能获得的回报。这是因为“腐朽经济”和“增长至上”的心态,使我们无法将GenAI定位为一个相当出色的工具,用来提高我们30%的生产力。在一个公正的世界里,这已经足够好了,足以围绕它构建一个市场。
发表评论 取消回复