超级智能永远不会到来
![]() | ![]() |
马斯克旗下的人工智能公司xAI正式发布了Grok4,吹牛不用上税,马斯克宣称“在多数情况下,Grok已经比人类聪明得多”。
已经有砖家提前打脸马斯克,认为超级智能永远不会到来,人工智能无法发现任何新事物。它只能寻找和获取已有的信息。新的知识来自人类的创造力、艺术、写作和原创作品。计算机无法完成真正具有创造性的任务。全文如下:
读者至少知道关于人工智能(AI)的两件事。
第一是AI热潮在过去三年一直推动股市上涨,尽管途中偶有回调。
第二是AI是一项革命性技术,将改变世界并可能消除众多工作岗位,包括那些需要培训和技术技能的工作。
这两点都是正确的,但有很多需要注意的地方。人工智能一直在推动股市创下历史新高,但市场看起来和感觉上都像是超级泡沫。崩盘随时可能发生,使市场下跌 50% 或更多。
这并不是现在做空主要股票指数的理由。泡沫可能会持续得比任何人预期的都要久。如果做空指数,一旦判断失误,可能会损失惨重。但建议减少股票配置,增加现金持有量,以在崩盘来临时避免遭受重大损失。
关于第二点,人工智能会使一些工作变得过时或容易被取代。当然,与任何新技术一样,它也会创造需要不同技能的新工作。教师不会被淘汰。他们将从教授数学和阅读等基础知识(人工智能在这方面做得很好)转向教授批判性思维和推理(这是计算机做得很差或根本无法做到的)。变化将是普遍的,但它们仍然是变化而非混乱。
局限性
人工智能是一股强大的力量,但其实际潜力远不如表面看起来那么大。人工智能在处理能力、训练数据集和电力供应方面可能面临物质限制。半导体芯片不断提速,新型芯片也在研发中。但这些芯片消耗大量能源,尤其是在新的人工智能数据中心中以大规模阵列安装时。支持者们正转向核能发电厂,包括小型模块化反应堆,以满足人工智能的能源需求。这种需求是非线性的,这意味着要实现处理能力的小幅提升,就需要呈指数级增长的能源供应。人工智能在实现更高性能方面正迅速接近实际极限。
这种对能源近乎无止境的需求意味着,人工智能竞赛实际上是一场能源竞赛。这可能会让美国和俄罗斯成为两个主导力量(听起来熟悉吗?)因为中国依赖俄罗斯的能源,而欧洲依赖美国和俄罗斯。对俄罗斯能源出口的制裁实际上可能有助于俄罗斯在人工智能竞赛中占据优势,因为天然气可以在俄罗斯储存和使用,以支持人工智能和加密货币挖矿。这是对目光短浅的欧洲人和资源匮乏的中国人而言的意外后果法则。
人工智能缺乏常识
人工智能的另一个鲜为人知的局限性是搜索中的信息守恒定律。这一定律有严格的数学证明作为支撑。它表明,人工智能无法发现任何新的信息。它能更快地找到东西,还能建立人类几乎不可能建立的联系。这很有价值。但人工智能无法发现任何新事物。它只能寻找和获取已有的信息。新的知识来自人类的创造力、艺术、写作和原创作品。计算机无法完成真正具有创造性的任务。这应该能让人类感到些许安慰,即他们永远不会被淘汰。
人工智能的另一个问题是,随着越来越多的训练集内容由先前处理的AI输出构成,训练集被稀释和劣化。人工智能容易出现错误、幻觉(更准确地说是虚构)以及毫无事实依据的推断。这已经够糟糕的了。但当这些输出进入训练集(基本上是互联网上的每一页)时,训练集的质量会下降,未来的输出也会同步劣化。除了精心筛选之外,没有好的解决办法。如果必须由主题专家来筛选训练集并评估输出,这会大大削弱人工智能的增值作用。
计算机也缺乏同理心、同情心和常识。它们能处理信息,但并不能像人类那样真正思考。实际上,人工智能根本不会思考,它只是数学运算。在最近的一项实验中,一台人工智能计算机与一群3至7岁的孩子进行了一场比赛,比赛内容是用手头的工具画一个圆。这些工具包括一把尺子、一个茶壶和一个与比赛无关的物品,比如炉灶。计算机推理出尺子是一种绘图工具,就像圆规一样,于是试图用尺子画圆,结果失败了。孩子们看到茶壶底部是圆形的,就直接用茶壶描出了完美的圆。人工智能系统运用的是关联逻辑,而孩子们运用的是常识。孩子们赢了。在未来的比赛中,这一结果不会改变,因为常识(从技术上讲是溯因逻辑)无法被编程。
那些发展迅猛的人工智能公司很快发现,它们的系统会被那些仅仅将昂贵的人工智能成果作为基础训练集的新系统超越。这是一种以极低的成本实现高性能的捷径。像微软和谷歌这样的老牌人工智能公司称这是窃取知识产权,但这并不比那些巨头使用现有的知识产权(顺便说一句,包括我的书)而不支付版税更糟糕。这或许是一种盗版行为,但做起来容易,几乎无法阻止。这并不意味着人工智能的终结。这意味着人工智能的超高利润预期的终结。人工智能巨头投入的数千亿美元可能回报甚微。
山姆·奥尔特曼:创新者还是推销员?
在人工智能领域,最知名的人物当属山姆·奥尔特曼。他是OpenAI的负责人,该公司几年前推出了ChatGPT应用程序。人工智能始于20世纪50年代,从发展角度来看,在80年代似乎遭遇瓶颈(这一时期被称为“人工智能寒冬”),90年代和21世纪初基本处于停滞状态,然而在过去十年里突然又活跃起来。ChatGPT在推出后的头几个月里成为有史以来下载量最大的应用程序,如今拥有数亿用户。
去年,奥特曼被OpenAI董事会赶走,因为该公司原本旨在作为一家非营利实体,致力于开发造福人类的人工智能。奥特曼却想将其转变为营利性实体,为数百亿美元的首次公开募股做准备。当顶尖工程师威胁要辞职并跟随奥特曼加入新企业时,董事会迅速改变态度,将奥特曼重新请回公司,不过具体的法律架构仍在讨论之中。
与此同时,奥特曼全速推进着他关于超级智能(也称为高级通用智能(AGI),关键词是“通用”,意味着该系统能够像人类一样思考,甚至更出色)的主张。理解超级智能的一个方式是用这样一个比喻:人类对于计算机而言,就如同猿类对于人类一样。我们会被认为是聪明的,但不会比我们的机器主人更聪明。奥特曼称,“在某些方面,ChatGPT已经比任何曾经存在的人类都更强大。”他还表示,预计到2025年,AI机器将“从事真正的认知工作”,到2026 年将“产生新颖的见解”。
这完全是无稽之谈,原因有几条。首先,正如上文所述,训练集(大型语言模型所学习的材料)正受到先前人工智能模型输出的污染,因此机器变得越来越笨而不是越来越聪明。其次是我上面提到的搜索中的信息守恒定律。这条定律(有应用数学作为支撑)表明,计算机或许能比人类更快地找到信息,但它们无法找到任何尚不存在的信息。换句话说,这些机器并非真的在思考,也并非真的具有创造力。它们只是比我们更快地将点连接起来。
苹果公司的一篇新论文得出结论:“通过在各种难题上进行大量实验,我们发现前沿的大型推理模型在超过一定复杂度时会出现准确率的全面崩溃。此外,它们还表现出一种反直觉的规模限制:随着问题复杂度的增加,其推理努力会增加到一定程度,然后即便有足够的标记预算,推理努力也会下降。”这一结论以及其他证据表明,人工智能在逻辑方面已达到无法仅靠计算能力的蛮力来突破的极限。
最终,没有任何开发者能够编写出溯因逻辑;也就是真正的常识或直觉。这是人类所拥有的最强大的推理工具之一。简而言之,超级智能永远不会到来。越来越多的人认为,奥特曼看起来就像硅谷的又一个推销员,兜售着下一个大热门,但背后却没什么实质内容。