三点观察 - Sam Altman
原文:Three Observations - Sam Altman
我们的使命是确保通用人工智能 AGI 造福全人类。
当下,具有通向 AGI 迹象的系统开始出现,理解我们当前的处境更为重要。AGI 是一个定义较为模糊的术语,但一般来说,它指的是能够在多个领域以接近人类水平解决日益复杂问题的系统。
人类是工具创造者,天生拥有探索和创造新事物的内在驱动力,这推动着社会不断进步。每一代人都建立在前人发现的基础之上,创造出更强大的工具——电力、晶体管、计算机、互联网,而未来很快将迎来 AGI。
尽管发展并非一帆风顺,但人类创新的步伐始终在稳步推进,为人们的生活带来了前所未有的繁荣和改善。某种程度上,AGI 只不过是人类共同构建的进步阶梯中的又一个工具。但在另一个意义上,它开启了全新的时代,让人不禁感叹:“这次真的不一样。” 未来的经济增长前景令人惊叹,我们甚至可以设想这样一个世界:所有疾病都得到治愈,人们拥有更多时间陪伴家人,并能充分发挥自身创造力。十年后,也许每个人的能力都会超过今天世界上最具影响力的人。
我们继续见证着AI开发的快速进步。以下是关于AI经济学的三个观察:
-
AI 模型的智能水平大致等于其训练和运行所消耗资源的对数。这些资源主要包括训练计算量、数据和推理计算量。看起来,只要愿意投入足够的资金,就可以持续获得稳定且可预测的性能提升。目前的扩展法则(Scaling Laws)已经在多个数量级上得到了验证。
-
相同水平 AI 的使用成本大约每 12 个月下降 10 倍,进而极大促进 AI 的应用。以 GPT-4 在 2023 年初的成本与 2024 年中 GPT-4o 的成本为例,单位 token 的价格在此期间下降了约 150 倍。摩尔定律以每 18 个月翻一倍的算力提升改变世界,而 AI 的带来的改变远超这一速度。
-
智能水平线性增长所带来的社会经济价值是超指数级增长的。这意味着,当前对 AI 研发的指数级投资没有理由在短期内停止。
如果这三点观察持续下去,其对社会的影响将是巨大的。
我们正在开始推出 AI Agent,这些 Agent 最终会成为“虚拟”的同事。想象一个 AI 软件工程 Agent,它能够完成顶级公司里有几年经验的工程师可以在几天内完成的大部分任务。它不会提出最具突破性的创意,需要大量人类监督和指导,在某些方面表现出色,但在某些方面可能表现意外地糟糕。尽管如此,你可以将它作为一个相对初级但真实的虚拟同事。然后,想象有 1,000 个这样的 Agent,甚至 100 万个。再想象在所有知识型工作领域,都有类似的 Agent。
从某种意义上,AI 在经济上可能会像晶体管那样——作为一次巨大的科学突破,广泛扩展并渗透到经济的方方面面。我们不会刻意思考晶体管的存在,但它们却赋能了计算机、电视、汽车、玩具等无数设备,使它们变得强大无比。
社会不会一夜之间发生剧变,短期内,人们的日常生活不会有太大改变。2025 年的人们仍会像 2024 年那样度过大部分时间。我们仍然会坠入爱河、组建家庭、在网上争吵、亲近自然等等。但未来的趋势不可逆转,社会和经济的长期变革将极为深远。我们将找到新的事物去探索,新的方式去彼此帮助,并以新的方式竞争,而这些可能与今天的工作模式大相径庭。
在未来,主动性、意志力和决策能力将变得极其重要。 在瞬息万变的世界中,如何正确选择方向并适应变化将成为核心竞争力。AGI 将成为人类意志史上最强大的放大器,让个体的影响力前所未有地增强,而非削弱。
AGI 的影响不会在所有领域均匀分布。某些行业可能变化不大,但科学进步的速度很可能远超当前,而这一影响可能会盖过其他一切。许多商品的价格最终会大幅下降(当前主要受限于智力和能源成本),但奢侈品以及土地等稀缺资源的价格可能会急剧上升。
从技术角度来看,未来的道路相对清晰。但 AGI 如何融入社会,公共政策和社会共识至关重要。这正是我们选择尽早、频繁推出 AI 产品的原因——让社会和技术有时间共同演进。AI 将渗透到经济和社会的各个角落,我们将期望一切都变得“智能”。许多人认为,我们需要比以往更加赋予人们对技术的控制权,比如更多地开源 AI 技术,同时在安全与个人赋权之间找到适当的平衡。
我们不会鲁莽行事,AGI 的安全问题可能会带来一些重大决策和限制,而这些决策可能不受欢迎。但总体上,随着 AGI 的实现,我们认为趋势应当更多地朝向个体赋权。否则,另一种可能的未来是,AI 被极权政府用作大规模监控和社会控制的工具,导致个体失去自主权。
确保 AGI 的益处被广泛共享至关重要。历史上的技术进步表明,大多数我们关心的指标(如健康水平、经济繁荣等)都会在长期内总体改善,但平等并不是技术进步的必然结果,正确引导社会分配方式可能需要新的理念和机制。
特别是,资本与劳动的权力平衡可能会被打破,这或许需要尽早干预。我们愿意探索一些看似“异想天开”的方案,比如给全球每个人提供一定的“计算预算”,以确保 AI 资源的公平使用。当然,也可能仅仅通过持续降低 AI 计算成本,就能达到类似的目标。
到了 2035 年,每个人都应该能够调动相当于 2025 年整个人类社会的智能资源,每个人都应该能够获取无限的智慧,以任何他们所能想象到的方式加以运用。如今,世界上仍有大量才华横溢的人因缺乏资源而无法施展才干。如果我们能改变这一现状,全球的创造力将迎来爆发式增长,而这将为我们所有人带来巨大的福祉。
Dialogue at UTokyo GlobE #14: Mr. Sam Altman and Mr. Kevin Weil (CEO and CPO of Open AI)
Q:如果 ChatGPT 获得了 100 倍的算力,它会出现什么新的涌现特性?会出现什么质的飞跃吗?
奥特曼:我们正在寻找这个问题的确切答案,「星际之门」项目正在推进,它拥有我们当前的计算集群大约 100 倍的计算能力。
我们过去的范式是只做预训练,每一代 GPT,第 1、2、3、4 代,每一代的算力都是之前的大约 100 倍,虽然不是精确的 100 倍,但非常接近。每一次迭代,模型都会出现重要的新涌现特性。我们已经发展到大约 4.5 代。所以如果想达到 5.5 代,还需要再增加 100 倍。
然而,去年出现了一件最重要的事,那就是能够进行推理的新模型。它们在计算效率上有了惊人的提升。通过强化学习,模型可以在很多基准测试上表现出色。这些成果在以前的思路中要扩张到 GPT-6 才能实现,而现在用更小的模型就能做到。所以,我们现在有了一些新的认识。关键在于,新方法并不是在所有方面都比旧方法更好,只是在某些特定方面有所提升。不过,我们现在可以更清楚地知道,如果我们用这个新方法去训练一个更大的模型,大概会达到什么样的效果。
基于这种跳跃式进展,我所期待的是 AI 自主发现科学知识,特别是新的物理学或新的生物学知识的能力。近期推理模型的发展确实令人惊叹。我们的第一个推理模型的水平仅相当于世界排名百万开外的竞赛程序员,但随后我们开发的模型已经能够跻身世界排名前一万名。到了 12 月公开发布的 o3 模型,它已经达到了世界第 175 名竞赛程序员的水平。目前,我们内部的基准测试显示,模型水平大约在世界前 50 名左右,我相信到今年年底,我们有望冲击世界第一的宝座。新的技术范式展现了惊人的提升速度,并且目前还没有任何放缓的迹象。
Q:能否分享一下你们未来的各个研究领域的研究计划,以及你们目前认为什么是可实现的,什么是特别具有挑战性的?
奥特曼:我们上周五发布了 o3-mini,我认为这预示了未来六到十二个月的研究方向。
Q:你能分享一下关于 10 年后 AI 会是什么样子的想法吗?
奥特曼:如果我们谈论 2025 年地球上的总智能,所有人、协作、AI,就是地球上的总智力容量。我认为到 2035 年,如果进步的趋势继续下去,那么一个单独的数据中心就会比地球当前的总智力容量更强大。