人工智能到2027年将如何主宰职业
美国计算机科学家马克·安德森将人工智能比喻为魔法石,可以把简单的东西(比如沙子/硅)转化为创造价值和知识的强大力量。他受到古代神话的启发,这些神话声称点金石可以将廉价金属变成黄金。
这是2023年发表的《技术乐观主义宣言》中提出的观点。
2025年4月3日,五位人工智能研究人员(一位英国人,其余是美国人)发布了一项名为“2027年的人工智能”的预测研究。该研究包括未来两年的详细时间表,清晰地概述了人类在 2027 年底之前制造出在多个方面超越人类智能的超级智能所需要采取的步骤。这将通过一家名为“OpenBrain”的虚构公司来实现,以避免透露任何现有公司的名字。
以下是该研究提供的 2027 年人工智能将超越人类的证据:
- 第四版智能代理将于2027年问世,其学习和执行速度将比人类快50倍。
- 一个智能代理将能够生产 300,000 个自身的副本,它们可以同时协同工作,实时交换知识和专业技能,并以分布式和协调的方式执行各种任务,就好像它是一个单一的大型神经网络或集体大脑一样。
- 到2027年,人工智能在一天之内所取得的认知和技术进步将相当于人类一个团队甚至一个技术专家社区在一整周内所取得的进步。
- 人工智能将表现出半自主行为,其行为方式表明它理解其目标并操纵它们,并且在解决问题、编写代码和分析复杂数据方面胜过最好的程序员和研究人员。
- 它将能够尝试误导人类,这是高级情境意识的表现。

研究表明,人工智能相对于人类的优势可能并不涵盖人类智力的所有方面,例如情感、自我意识、道德或智慧,如果不加以监控和制约,可能会面临失控的风险。
这并不是唯一一项预测通用人工智能(AGI)即将诞生的研究。谷歌 DeepMind 最近发表了一份长达 145 页的研究论文,预测到 2030 年 可能出现的AGI(卓越级AGI)将与人类技能匹敌,并警告它可能带来的生存威胁,有可能永久性地摧毁人类。
Anthropic 首席执行官达里奥·阿莫迪 (Dario Amodei) 的预测则更加乐观,他最近表示,“过去几个月我在 Anthropic 内部和外部所看到的情况让我相信,我们正朝着人类水平的人工智能系统迈进,两到三年内,该系统将在所有任务上都超越人类。”
谷歌前首席执行官埃里克·施密特认为,人工智能将在3至5年内达到最聪明的艺术家的智力水平,而世界距离通用人工智能还有3至5年的距离,通用人工智能将与当今任何人类思想家或创造者相当,甚至更胜一筹。
他问道,“如果我们每个人的口袋里都有相当于最聪明的人在努力寻找解决我们面临的各种问题的方法,会发生什么呢?”
另一方面,OpenAI 首席执行官萨姆·奥尔特曼上个月写道:“指向通用人工智能的系统开始出现,潜在的经济增长看起来令人难以置信,我们现在可以想象一个我们治愈所有疾病并释放全部创造力的世界。”
雷·库兹韦尔——其是世界上最著名的未来学家,比尔·盖茨曾称赞他为“我认识的预测技术未来最好的人”——认为,我们正经历着人类历史上最令人惊叹的岁月。我们正处于一个关键时刻,人工智能将永远改变我们的生活。
库兹韦尔预测,人工智能将在2029年达到人类智能,并超越人类智能。人类唯一的出路就是将人工智能融入自身,特别是随着奇点的临近,预计在2040年代,将出现超越人类智能数十亿倍的超级智能。
一些思想家并不支持这些预测。在2025年5月27日至30日于温哥华举行的万维网峰会上,约15,000名专家探讨了生成式人工智能的未来。
尽管大多数参与者都相信人类已经接近实现可以匹敌甚至超越人类能力的通用人工智能,但美国研究员兼作家加里·马库斯表达了不同的看法,他质疑大型语言模型(LLM)的能力——他认为大型语言模型存在根本缺陷——无法兑现硅谷所宣传的雄心勃勃的承诺。

马库斯并不是唯一一个怀疑人工智能超越人类能力的人。美国计算机科学家兼作家杰伦·拉尼尔 (Jaron Lanier) 在近两年前接受《卫报》采访时,批评了人工智能可以“超越”人类智能的普遍看法。他认为人工智能不是一个独立的实体,而是人类编程的结果。
天文学家、科学哲学家亚当·贝克在其2025年4月出版的新书《永恒的万物》中探讨了硅谷科技巨头所推崇的“技术救赎意识形态”,其中三个关键特征发挥了关键作用:1)相信技术可以解决任何问题,2)技术永恒发展的必然性,3)痴迷于人类超越其身体和生物局限的能力。
贝克警告说,科技巨头正在利用这种意识形态将人类引向危险的道路。他说:“科技亿万富翁对这些基于科幻小说的未来愿景的信任,证明了他们将业务增长描绘成道德责任、将世界复杂问题简化为简单的技术问题以及为他们可能采取的几乎任何行动辩护的努力是正确的。”
专门研究人工智能安全的未来生命研究所联合创始人兼执行董事安东尼·阿吉雷预测,虽然他预计通用人工智能将在 2027 年至 2030 年之间出现,但他认为这可能会引发人类历史上前所未有的社会和政治动荡。它可以快速地自我完善并大大超越人类的能力,特别是因为这些系统本质上是不可预测的,而且我们更接近于构建它们,而不是了解如何控制它们,如果这可能的话。
根据苹果公司6月份发表的研究论文,OpenAI的O3、DeepSeek的R1等领先的人工智能技术的推理能力在面对日益复杂的问题时就会失效,这表明我们距离通用人工智能还很遥远。
对于人工智能未来的预测有三种情景:第一种情景认为人工智能不可能达到人类水平的智能;第二种情景预测人工智能很快就会达到人类的智能,并认为这将带来人类的繁荣;第三份情景也预测人工智能很快将达到人类的智能水平,但认为这将对人类构成严重威胁。问题是:目前流行的预测中哪一个最有可能实现?

1962年,英国科幻小说作家阿瑟·查尔斯·克拉克发表了一篇题为《科学预测的危险……当想象力失败时》的文章,作为他著作《未来的特征》的一部分。在这本书中,克拉克提出了他的三条科学预测定律,分别是:
定律一:当一位杰出的科学家说某件事是可能的时候,他很可能是对的。当他说某事是不可能的时,他很可能是错的。
定律二:发现可能性极限的唯一方法就是稍微超越这些极限,进入不可能的领域。
第三定律(最著名的):任何足够先进的技术都与魔法无异。
这些定律至今仍在有关理论物理、人类未来以及技术(尤其是人工智能)的许多讨论中使用。
按照这些规律,人工智能很可能很快就会达到人类的智能水平,甚至可能超越人类,但这些规律并没有告诉我们这会导致人类的繁荣还是灭亡。