找回密码
 注册
搜索
查看: 32|回复: 0

“人工智能寒冬”即将来临?过往低谷期可提供经验

[复制链接]
发表于 2025-9-8 08:19 PM | 显示全部楼层 |阅读模式


“人工智能寒冬”即将来临?过往低谷期可提供经验

Screenshot 2025-09-08 at 8.12.27 PM.png
3.jpg
图片来源:Photo illustration by Getty Images


夏日渐去、秋日将至,众多科技界人士开始担忧寒冬的到来。上月末,彭博社专栏作家提出疑问:“人工智能寒冬终于要来了吗?”英国《每日电讯报》则态度更为笃定:“下一轮人工智能寒冬即将来临”。与此同时,社交平台X上关于“人工智能寒冬或将来临”的讨论也甚嚣尘上。


“人工智能寒冬”是人工智能领域从业者用以指代特定时期的称谓:这一时期,大众对“机器能如人类般学习、思考”这一理念的热情渐趋冷却,对人工智能产品、企业及研究的投资也随之枯竭。这一词汇之所以频繁从人工智能评论员的口中说出,实则有其深刻缘由——在长达70年的人工智能研究历史中,我们已经历过数次“寒冬”。倘若如部分人所忧虑的那样,我们即将步入新一轮“寒冬”,那么这至少将是第四次。


近期关于寒冬将至的讨论,根源在于投资者愈发忧虑人工智能技术可能无法达成炒作营造出的预期,且诸多人工智能相关公司估值过高。在最糟糕的情况下,这场人工智能寒冬可能伴随着人工智能概念催生的股市泡沫的破裂,进而对整个经济产生影响。虽然此前也曾经历人工智能炒作周期,但从未有哪次像本轮生成式人工智能热潮这样,吸引投资者投入高达数千亿美元资金。因此,若新一轮“寒冬”到来,其冲击力或将如极地涡旋般猛烈。


近期OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)的言论引发了市场恐慌。他向记者坦言部分风投支持的人工智能初创企业估值严重虚高(当然,OpenAI不在此列,它是史上估值最高的风投支持型初创企业之一)。随后,麻省理工学院发布的研究报告指出95%的人工智能试点项目以失败告终。


回顾过往的人工智能寒冬及其成因,或许能帮助我们判断当前空气中的“寒意”究竟只是一阵短暂的凉风,还是“冰河时代”即将来临的先兆。有时人工智能寒冬是由学术研究揭示特定人工智能技术的局限性引发的;有时则因人工智能技术在现实应用中屡屡受挫;有时两者兼而有之。但历次人工智能寒冬的共同之处在于:当承载厚望的新进展未能兑现炒作所赋予的过高期待时,出资方便会陷入幻灭。



第一轮人工智能炒作周期


冷战初期,美国及其盟国政府便在人工智能研究领域投入了巨额资金。彼时与当下情形一样,美国政府将这项技术视为可能带来战略和军事优势的领域,因此美国国防部提供了大部分人工智能研究经费。


当时,人工智能领域存在两种对立的方法论。其一,是借助硬编码逻辑规则,将输入数据分类为符号,再通过对这些符号进行操控来得出输出结果。依靠此方法,计算机在跳棋、国际象棋领域首次取得重大突破,世界上首批聊天机器人也由此诞生。


另一种方法则基于感知器技术——即当今神经网络的前身,是大致模仿大脑运行机制的人工智能。感知器并非从规则和逻辑出发,而是通过数据学习归纳完成特定任务的规则。美国海军研究办公室为感知器的早期研究提供了大量资金支持,而康奈尔大学神经科学家兼心理学家弗兰克·罗森布拉特(Frank Rosenblatt)是该技术的开创者。美国海军和中央情报局(CIA)均对感知器进行了测试,试图验证其能否对目标进行分类——例如识别敌舰轮廓,或辨别航空侦察照片中的潜在目标。


两大对立阵营都高调宣称,其技术将迅速催生出与人类智力相当甚至超越人类智力的计算机。1958年,罗森布拉特在接受《纽约时报》采访时表示,他研发的感知器很快就能识别人脸并喊出其姓名,距离实现即时语言翻译“仅一步之遥”,最终人工智能系统还将具备自我复制能力并拥有意识。与此同时,麻省理工学院人工智能实验室联合创始人、符号人工智能阵营领军人物马文·明斯基(Marvin Minsky)在1970年接受《生活》杂志采访时宣称:“未来三到八年内,我们将拥有具备普通人类通用智能的机器。”


这正是人工智能寒冬的首要前提:炒作。如今多位人工智能领域知名人士的言论与彼时存在明显的相似之处。今年1月,OpenAI首席执行官萨姆·奥尔特曼在其个人博客中写道:“我们如今笃定——已掌握构建具备传统意义上人类水平的通用人工智能的方法”,并表示OpenAI正日益将重心转向研发超越人类的“超级智能”。他还称,今年“我们可能见证首批人工智能代理'加入劳动力队伍',并切实改变企业的产出”。Anthropic联合创始人兼首席执行官达里奥·阿莫迪(Dario Amodei)曾预测,具备人类水平的人工智能将于2026年问世。与此同时,谷歌DeepMind联合创始人兼首席执行官戴密斯·哈萨比斯(Demis Hassabis)则表示,在所有认知领域均达到人类水平的人工智能将在未来“五到十年内”诞生。



政府失去信心


但引发人工智能寒冬的,是部分确凿证据表明炒作的愿景无法兑现。第一次寒冬的爆发源于一系列沉重打击:1966年,受美国国家研究委员会(National Research Council)委托的委员会发布了一份关于自然语言处理和机器翻译现状的负面报告,结论是计算机翻译比人工翻译成本更高、速度更慢且准确性更低。该委员会此前已为早期语言人工智能研究投入2000万美元(按如今币值计算,至少相当于2亿美元),随后便停止了所有资金支持。


随后在1969年,明斯基又挥出第二记重拳。这一年,他与人工智能研究者西蒙·派珀特(Seymour Papert)合著的专著对感知器进行了全面批判。在书中,明斯基与派珀特通过数学论证证明:单层感知器(如罗森布拉特1958年高调展示的那种)仅能进行精确的二元分类——换言之,它只能识别物体是黑是白、是圆是方,却无法将事物归入两个以上的类别。


事后证明,明斯基与派珀特的批判存在重大缺陷。尽管多数人将此书视为基于神经网络的人工智能永远无法企及人类智力水平的决定性证据,但他们的论证仅适用于结构简单的单层感知器:输入层由若干接收数据的神经元构成,且所有输入层神经元仅与一个输出层神经元相连。他们很可能刻意忽略了这样一个事实:早在1960年代,部分研究者已开始探索多层感知器——这种感知器在输入层神经元与输出层神经元之间增设了一个由神经元构成的中间“隐藏层”。作为当今“深度学习”技术的真正前身,多层感知器实际上具备将数据归入两个以上类别的能力。但当时训练这种多层神经网络难度极大。而这已无关紧要——损害已然造成。明斯基与派珀特的著作出版后,美国政府对基于神经网络的人工智能方法的资金支持基本终止。


明斯基与派珀特的批判不仅说服了美国国防部的资助机构,还让众多计算机科学家相信神经网络研究已走入死胡同。部分神经网络研究者甚至指责明斯基使该领域的发展倒退了数十年。2006年,曾助力重新点燃神经网络研究热情的研究员特伦斯·谢诺夫斯基(Terry Sjenowski)在一次会议上公开质问明斯基:“你是魔鬼吗?”明斯基无视提问,转而详细阐述他眼中神经网络存在的缺陷。谢诺夫斯基继续追问,恼怒的明斯基大声回应道:“没错,我就是!”


但明斯基代表的符号人工智能,很快也面临资金短缺的困境。同样是在1969年,美国国会强制要求曾为两种人工智能研究方法提供大量资金支持的美国国防部高级研究计划局(Defense Advanced Research Project Agency,DARPA)改变拨款方式。该机构被告知要资助那些具有明确军事应用场景的研究项目,而非更侧重理论探索的“蓝天研究”(指无明确实用目标、纯基础领域的研究)。尽管部分符号人工智能研究符合这一标准,但大多数研究并不符合。


1973年,致命一击降临:英国议会委托剑桥大学数学家詹姆斯·莱特希尔(James Lighthill)对英国人工智能研究现状展开调查。他在结论中指出,在实现与人类智力水平相当这一宏大目标上,人工智能未能显露出任何希望,其推崇的诸多算法虽能解决“玩具级问题”(指简单模拟场景中的问题),却永远无法应对现实世界的复杂性。基于莱特希尔的这一结论,英国政府终止了对人工智能研究的所有资金支持。


尽管莱特希尔的调查仅聚焦于英国的人工智能研究,但美国国防部高级研究计划局以及其他资助人工智能研究的美国机构均注意到了这一结论,这进一步加深了他们对人工智能的怀疑态度。到1974年,美国对人工智能项目的资助额仅为1960年代的零头。人工智能寒冬就此降临,并一直持续到20世纪80年代初。


如今,当研究表明人工智能未能达到预期时,也出现了与第一次人工智能寒冬相似的情形。苹果公司与亚利桑那州立大学近期发表的两篇研究论文,对前沿人工智能模型是否真正具备推理能力提出质疑——这些模型本应通过“思维链”推理如何回应提示词。两篇论文均得出一致结论:这些模型并未像人类理解的推理那样,学习如何将可泛化的逻辑规则和问题解决技巧用于解决新问题,而仅仅是试图将当前问题与训练数据中出现过的问题进行匹配。这些研究或许会成为当代版“明斯基与派珀特批判感知器”的标志性事件。


与此同时,关于当前人工智能模型实际影响的研究正日益增多,这类研究与莱特希尔报告及美国国家研究委员会的报告类似。例如,麻省理工学院的一项研究得出结论,95%的人工智能试点项目未能推动企业营收增长。赛富时(Salesforce)研究人员近期发布的研究发现,当前多数大型语言模型无法准确执行客户关系管理(CRM)任务——这一结论颇具讽刺意味,因为赛富时自身正大力推广人工智能代理,以实现客户关系管理流程自动化。Anthropic的研究表明,其Claude模型无法成功运营自动售货机业务——相较于科技鼓吹者宣称将被人工智能代理“彻底颠覆”的众多业务,这已是相对简单的业务。人工智能研究机构METR的研究还揭示:实际上,相较于不借助人工智能编程助手的情况,使用这类工具的软件开发人员,完成任务的速度降低19%。


但存在部分关键差异。最显著的是,当前的人工智能热潮并不依赖公共资金。尽管包括美国军方在内的政府机构正成为人工智能企业的重要客户,但推动当前热潮的资金几乎完全来自私营领域。自2022年11月ChatGPT推出以来,风险投资机构已向人工智能初创企业投入至少2500亿美元。这还不包括微软、谷歌母公司Alphabet、亚马逊和Meta等大型上市科技公司在自身人工智能项目上的巨额投入。仅今年一年,用于建设人工智能数据中心的支出就高达3500亿美元,预计明年这一数字还会进一步攀升。


此外,与第一次人工智能寒冬时期人工智能系统主要停留在研究实验阶段不同,如今人工智能已在各行业广泛部署。人工智能还成为一项规模庞大的消费技术——仅ChatGPT的周用户量就达7亿——这在以往是从未有过的情况。尽管当今的人工智能似乎仍缺乏人类智能的某些关键要素,但相较于过去的人工智能系统已有显著进步,而且人们确实发现这项技术在大量任务中具有实用价值,这一点毋庸置疑。



第二次人工智能寒冬:企业失去耐心


第一次人工智能寒冬在20世纪80年代初逐渐消退,这主要归功于计算能力的提升和算法技术的改进。这一时期,人工智能领域的炒作主要集中在“专家系统”上——这类计算机程序旨在将特定领域人类专家的知识编码为逻辑规则集,软件根据这些规则执行特定任务。


尽管如此,企业界仍热情高涨,认为专家系统将推动生产力大幅提升。在这轮人工智能炒作周期的鼎盛阶段,近三分之二的《财富》美国500强企业宣称已部署专家系统。到1985年,美国企业在这方面的总投入已超过10亿美元,围绕该技术的完整产业也应运而生,其中大部分得到了风险投资的支持。大部分资金用于研发名为LISP机的专用计算机硬件,这些硬件经过优化可运行专家系统——其中许多系统正是用LISP编程语言编写的。此外,自1983年起,美国国防高级研究计划局通过新推出的“战略计算计划”重新资助人工智能研究,最终向全美多所大学的90余个人工智能项目投入逾1亿美元资金。


尽管专家系统借鉴了符号人工智能研究者开创的诸多方法,但许多计算机科学领域的学者担忧,过高的期望值将再次引发“繁荣-萧条”周期,进而对该领域的发展造成损害。明斯基和人工智能研究学者罗杰·尚克(Roger Schank)在1984年的一场人工智能会议上创造了“人工智能寒冬”这一术语。他们选用这个新词,意在呼应“核冬天”——大规模核战争后可能出现的、不见天日的毁灭性萧条时期。


随后发生的三件事引发了新一轮寒冬。1987年,太阳计算机系统公司(Sun Microsystems)推出新型计算机工作站。这类工作站,以及IBM和苹果推出的性能日益强大的台式机,使得专用LISP机变得不再必要。不到一年时间,LISP机市场便彻底崩塌。许多风险投资机构血本无归,从此对人工智能初创企业避之不及。同年,纽约大学计算机科学家杰克·施瓦茨(Jack Schwartz)出任美国国防部高级研究计划局计算研究部门负责人。他向来对人工智能持否定态度,尤其反对专家系统,随即大幅削减相关经费。


与此同时,企业逐渐发现专家系统的构建与维护成本高昂且难度极大。这类系统还存在“脆弱性”——虽能高效处理高度常规化任务,但遇到稍有异常的情况,就难以应用预设的逻辑规则。此时,系统往往会输出怪异且不准确的结果,甚至直接彻底崩溃。事实证明,要制定出能覆盖所有极端情况的规则,是一项不可能完成的任务。因此到20世纪90年代初,企业开始放弃专家系统。与首次人工智能热潮中科学家和政府资助方对技术产生质疑不同,第二次寒冬的主要推手是企业的失望情绪。


如今人工智能领域的发展,与彼时存在明显的相似之处。例如,微软、Alphabet、亚马逊云科技、埃隆·马斯克的X.ai以及Meta正斥资数千亿美元建设人工智能数据中心。OpenAI正与软银、甲骨文及其他投资者共同推进耗资5000亿美元的“星门计划”数据中心项目。英伟达之所以能凭借4.3万亿美元市值成为全球市值最高的公司,很大程度上是因为其生产的人工智能芯片满足了数据中心的需求。数据中心热潮背后的核心假设之一是:最前沿的人工智能模型,其规模即便不比现有顶尖模型更大,至少也会与之相当。而训练和运行这类规模的模型,需要极其庞大的数据中心支持。


然而与此同时,多家初创企业已找到巧妙方法,成功研发出规模小得多却能模拟大型模型诸多功能的模型,且所需计算资源远少于后者,有些甚至无需使用英伟达生产的专用人工智能芯片,规模小到可在智能手机上运行。若这一趋势持续下去,那些巨型数据中心可能会变得不再必要——就像当年LISP机被证明并非必需品一样。这意味着,投入人工智能基础设施的数千亿美元资金,最终可能沦为“搁浅资产”。


当今的人工智能系统在诸多方面比20世纪80年代的专家系统更强大、更灵活。但企业仍发现其部署过程复杂且成本高昂,投资回报往往难以捉摸。尽管当下的人工智能模型比专家系统更具通用性与韧性,但依旧不可靠,尤其是在处理训练数据未充分覆盖的特殊案例时。它们容易产生幻觉,会笃定地输出错误信息,有时甚至会犯人类绝不会犯的错误。这意味着企业和政府无法将人工智能用于关键任务流程自动化。企业是否会像当年对专家系统那样,对生成式人工智能和大型语言模型失去耐心,目前尚难预料,但这种情况确实存在发生的可能性。



第三次人工智能寒冬:神经网络的兴衰与复兴


20世纪80年代,另一种人工智能方法——神经网络也重新引发关注,这在一定程度上得益于大卫·莱姆哈特(David Rumelhart)、杰弗里·辛顿(Geoffrey Hinton)和罗纳德·威廉姆斯(Ronald Williams)的研究。1986年,他们成功找到了破解自20世纪60年代以来便一直困扰多层感知器的关键难题的方法。他们的创新成果被称为反向传播(backpropagation,简称backprop),这种方法能在每次训练过程中对中间“隐藏层”神经元的输出结果进行修正,从而让整个神经网络实现高效学习。


反向传播算法,再加上性能更强大的计算机,共同推动了神经网络的复兴。很快,研究人员构建的多层神经网络便具备多种能力:能识别信封和支票上的手写字母、分析家谱中人物的亲属关系、识别打印字符并通过语音合成器朗读,甚至能为早期自动驾驶汽车导航,使其保持在高速公路车道内行驶。


这在20世纪80年代末引发了短暂的神经网络热潮。但神经网络也存在显著缺陷:训练过程需要海量数据,而许多任务根本无法获取所需的海量数据;在当时的计算机硬件条件下,训练速度极慢,有时运行过程中会出现迟滞。


这意味着神经网络仍存在大量无法完成的任务。与当初企业争先恐后地采用专家系统不同,如今企业并未急于引入神经网络——因其应用场景似乎极为受限。与此同时,其他统计机器学习技术正快速取得进展,这些技术所需数据量更少、对计算能力要求更低。如此一来,许多人工智能研究者和工程师再次对神经网络失去信心,又一个长达十年的人工智能寒冬来临。


推动第三次寒冬回暖,有两大因素发挥作用:其一,互联网产生了海量数字数据,且获取这些数据变得相对轻松,这解决了20世纪80年代神经网络发展面临的数据瓶颈问题;其二,自2004年起,先是马里兰大学的研究者,随后是微软的研究者,开始尝试使用“专为电子游戏设计的新型计算机芯片”——图形处理器(GPU)——来训练和运行神经网络。图形处理器具备并行执行大量相同运算的能力,而这恰恰契合了神经网络的运算需求。很快,杰弗里·辛顿及其研究生证明:基于海量数据集训练的、在图形处理器上运行的神经网络,能够完成诸如将图像分类为上千种类别等任务——这在20世纪80年代末是不可能实现的任务。现代“深度学习”革命就此拉开序幕。


这场热潮至今仍在持续。最初,对神经网络的训练多以实现单一特定任务为核心目标——下围棋或人脸识别。但2017年谷歌研究人员设计出名为转换器的特殊神经网络,它擅长解析语言序列,这一突破将人工智能的盛夏推向了更深层次。2019年,OpenAI的一项研究让这股热潮再获助力——他们发现,依托海量文本数据完成训练的转换器模型,不仅具备生成高质量文本的能力,还能掌握翻译、摘要等多种语言任务。三年后,基于该模型的神经网络升级版GPT-3.5,成为风靡全球的聊天机器人ChatGPT的核心引擎。


如今ChatGPT推出三年后,人工智能的炒作热度空前高涨。若以过往人工智能寒冬为参照,如今确实出现若干秋日征兆——随风飘落的零星落叶。这究竟是“又一场将让人工智能投资陷入长达一代人冰封期的极寒风暴”的前奏,还是“阳光重现前短暂的寒流”,唯有时间才能给出答案。(财富中文网)


译者:中慧言-王芳

您需要登录后才可以回帖 登录 | 注册

本版积分规则

手机版|小黑屋|www.hutong9.net

GMT-5, 2025-9-9 04:40 AM , Processed in 0.052701 second(s), 18 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表