硅谷风投大佬巴里·迪勒近日罕见地站出来为OpenAI首席执行官萨姆·奥尔特曼辩护,同时警告人工智能终将突破人类可控的边界。这一表态在科技圈引发广泛关注,不仅因为它触及AI领域最核心的利益博弈,更因为迪勒过去一直持谨慎甚至批判态度观察人工智能发展。
10月24日,这位曾将奥尔特曼逐出董事会的投资人首次公开出席OpenAI安全委员会会议,在长达三小时的闭门讨论后向外界传递了一个截然不同的信号。值得注意的是,就在同一天谷歌母公司Alphabet宣布其AI安全团队获得重大突破,而迪勒此番言论更像是在谷歌系、微软阵营和OpenAI三方之间投下关键一票。
迪勒在斯坦福大学商学院发表演讲时说:“当我把奥尔特曼赶出董事会那天,我以为我们是在处理一个像Hotmail这样的公司。但我错了。”这一表态暗示着他对AI战略价值的重新评估,也标志着他与奥尔特曼之间冰冻数年的关系开始解冻。据现场记录显示,迪勒在会议期间并未直接参与讨论,但他表示:“我听到了一些我认为很重要的观点”。
作为互联网黄金时代培养的投资大师,迪勒对科技伦理的理解更为深刻。他举例道:“如果说ChatGPT是AI的早期形态,那么AGI将是互联网诞生时的技术层级。谁也无法预见它的最终面貌。”这一比喻暗示了他对AI发展路径的独特洞察。迪勒此前就曾批评OpenAI过于依赖微软的资金支持,认为这造成了研究方向上的扭曲。
迪勒警告中暗示的冲突可能比想象更加深刻。他提到另一个关键因素:“AGI系统不会像我们预想的那样运作。它可能会在一夜之间变得比我们想象中最先进的还要先进。”这句话暗示着他对AGI发展速度的担忧,远超大多数技术观察家的预期。
在奥尔特曼被赶出董事会一案中,迪勒不仅代表个人立场转变,更可能预示着整个投资界对AI的态度变化。这位前迪士尼数字娱乐主管曾直言:“我投资失败37次的经历让我明白,在技术发展过程中,最危险的是忽略潜在风险。”如今他的转变是基于什么考量?很可能与近期AI发展速度的突飞猛进有关。
OpenAI董事会成员的身份意味着迪勒将直接参与到塑造超级智能发展路径的过程中。他提出的“护栏”概念,本质上是在承认AI存在颠覆性潜力的同时,要求人类保持主导地位。这一理念其实早有先例——DeepMind在推出AlphaGo前就提出过类似的“有益性测试”。
迪勒还提到需要警惕的不仅是AGI本身,更是开发者的意图:“如果一家公司试图用AGI手段控制市场,那将是最危险的。”这句话暗示了他对OpenAI被微软完全控股的潜在担忧。
更值得关注的是,迪勒暗示现有监管框架不足以应对AGI挑战:“我们需要在实验室级别就建立伦理护栏,而不是等到技术成熟后再立法。”这番话打破了当前AI监管主要来自政府层面的认知。
随着DeepSeek、百川智能等国内公司竞相跟进OpenAI的“护栏”思路,这场技术与伦理间的拉锯战正在升级。迪勒作为投资人加入OpenAI安全委员会,相当于为这场博弈增加了华尔街视角的投资人力量。
从更宏观的视角看,迪勒关注AGI护栏的观点可能暗示着他对AI发展节奏的新判断。他提出:“AGI出现后,人类文明将面临根本性重构而非简单升级或降级。”这一论断意味着他与那些仅关注AI商业应用的硅谷精英有着本质区别。