ChatGPT官网

GPT-4o发布会后Sam Altman首次专访,GPT-5

chatgpt2024-05-18 17:20:41169

前言

OpenAI春季发布会结束后,CEO Sam Altman接受了知名播客节目主持人罗根·巴特莱的专访,讲述了GPT-4o发布会背后的故事,发表了他对AI未来的预测,以及强调了当今AI领域最大的机遇和风险等等。今天就来给大家分享一下。目录如下:

  • GPT-4o:计算机使用方式的革命性飞跃
  • 迭代发布策略:OpenAI的未来规划
  • 通用模型的崛起:AI发展方向
  • ChatGPT的影响:改变人们对世界的期望
  • AI基础设施的短缺:供需失衡
  • 人工智能物理设备助手:未来的可能性
  • 对基于GPT-4的业务的忠告:避免昙花一现
  • 创业公司需关注的领域:新的职业机会
  • OpenAI的估值:不断提升的潜力
  • AGI到来的时间:未来充满变革
  • AI监管的必要性:控制风险,避免限制
  • 安全的错误框架:AI安全的另一面
  • 人类与AI的关系:保持明确的界限

GPT-4o:计算机使用方式的革命性飞跃

Sam认为这是计算机使用方式的一次革命性飞跃,长久以来,我们都有通过语音控制计算机的想法,比如像Siri这样的早期产品,但是GPT-4o在使用感受上超越了以前的产品,它更加自然、灵活、流畅,并且能够实现多样化的操作。Sam举了一个他使用GPT-4o的例子,就是当他全神贯注工作的时候,只需要将手机放在桌子上,有任何问题,直接通过提问就能立即获得响应,而不必将视线离开电脑,这种无缝衔接的体验非常特别。不过GPT-4o并不是来自于什么革命性的突破,而是来自于OpenAI在音频和视觉模型方面巧妙的融合。对于视频来说,网络延迟是一个很关键的问题,不过GPT-4o在实际应用中已经可以达到两三百毫秒的延迟,很多时候甚至能超越人类的反应速度。

迭代发布策略:OpenAI的未来规划

OpenAI现在很明确要采用所谓迭代发布的策略,所以接下来再发布的大模型,应该不会是一个像GPT-5这样的大版本,况且GPT-5只是个名字,OpenAI想要采取一种有别于传统科技公司的发布策略,不过现在还没想清楚如何为产品命名和建立对应的品牌。

但是即使是迭代发布,OpenAI还是渴望能够利用尽可能多的计算能力,而且如今效率已经有了惊人的提升,正如GPT-4o与之前的GPT-4和GPT-4 Turbo相比,在某些使用场景下的效率有了明显的提升,甚至还有很大的提升潜力。

ChatGPT的影响:改变人们对世界的期望

对于ChatGPT,Sam认为,ChatGPT本身并没有真正的改变世界,只是改变了人们对世界的期望,我们很难找到确切的证据证明ChatGPT确实提高了生产力,或者产生了其他直接的经济效益,但是如果我们几十年后回顾历史,那么可能会看到一系列模型是如何逐步推动了整个领域的发展,而ChatGPT只是其中的一部分。

通用模型的崛起:AI发展方向

谈到对未来AI模型的发展,Sam认为通用模型将会胜过专业模型,前者能够进行真正的推理,而后者只能基于特定的数据训练,用于特定的目的。此外,人类与人工智能之间的主要交流方式将会变成使用自然语言进行交流,比如可以设计一个人类和人工智能都能共同使用的机制,让它们以相同的方式进行互动。因此,相比于其他形式的机器人,Sam对于人形机器人更感兴趣,因为当前这个世界在很大程度上是为人类设计的,他不希望因为追求某些所谓的“效率”,而让这个世界进行重新的配置,因此,无论是人类和AI之间,还是AI与AI之间,都可以通过人类习惯的语言进行交流。

AI基础设施的短缺:供需失衡

随后巴特莱提到,Sam曾经说过,全球对人工智能基础设施的需求远超过目前台积电、英伟达等公司的供应能力,那Sam又是如何得出这一结论的呢?Sam首先确信,能够找到大幅降低现有AI系统成本的途径,其次,随着成本的降低,AI系统的需求势必将会激增,第三,通过构建更大、更先进的系统,还将进一步刺激需求的增长,人类共同期待的应该是一个“智能”极其丰富而且便宜的世界,大家可以利用智能技术完成各种各样的任务,甚至你都无需思考,AI会自动出色地完成应该做的任务,比如帮你阅读并回复所有的电子邮件,或者是帮你治疗癌症。Sam说这句话的初衷,是如何确保我们拥有足够的资源,让每个人都能享受到智能技术带来的益处。

人工智能物理设备助手:未来的可能性

谈到对目前各种AI物理设备助手的看法,Sam认为这仅仅是一个开始,他自己在使用计算设备方面的经验丰富,比方说他曾经在大一时拥有一台TC1000,后来又拥有了一部Palm Treo,这个在当时绝对是个炫酷的存在,目前这些物理设备预示着一个极具潜力的未来,只是需要时间的打磨和技术的迭代。对于AI公司来说,Sam之前还提到过一个观点,就是许多以GPT-4为基础建立业务的公司,将不可避免地会被未来的GPT迭代所淘汰,Sam这次进一步解释了这个观点,很多企业在构建AI业务的时候,其实都是在赌两件事,要么赌下一个模型表现平平,要么赌下一个模型会取得显著的进步,如果企业在AI的某个能力上投入了大量精力,一旦GPT-5或者后续版本出现并且超越,那么可能就会对先前的努力感到不值了,所以Sam建议这些企业,不要去建立一个纯粹的人工智能业务,而是要构建一个真正的业务,其中人工智能只是采用的一种技术,比方说,在苹果应用商店的早期阶段,有很多产品填补了明显的空缺,但是随后苹果解决了这个问题,我们现在已经不会再关注像手电筒这样的应用了,因为它们的功能已经被集成到了操作系统中,而像Uber这样的企业,它们因为智能手机的普及而兴起,但是它们建立了一个非常稳固而且长期可行的业务模式,Sam认为这才是企业应该追求的方向。

对基于GPT-4的业务的忠告:避免昙花一现

对于创业公司来说,只相信智能水平会逐年进步,成本会逐年下降,这是不足以跑赢其他大公司和创业竞争对手的,必须要深入探索业务的长期可持续性。

创业公司需关注的领域:新的职业机会

另外人们总是会关注哪些职业会消失,但是实际上也会产生新的职业,比如全新的艺术形式、娱乐方式,以及更加注重人与人之间的联系,这可能会给五千万或者一亿人带来新的职业机会,所以这也是创业公司可以关注的一个方向。

OpenAI的估值:不断提升的潜力 

谈到OpenAI和AGI,Sam提到OpenAI目前的估值是900亿美元,但是他认为,只要能够继续以当前的速度提升技术,持续利用它构建出色的产品,并且确保收入稳步增长,那么估值一定会继续提升,事实证明ChatGPT的订阅付费模式效果非常显著,甚至超过了Sam的预期,他相信AGI到来后,会给OpenAI带来完全不同的商业模式。

AGI到来的时间:未来充满变革

但是现在AGI到来的时间点不是很明确,或者说他根本不想明确。在OpenAI成立之初,Sam也曾经天真地认为,我们将从没有AGI的时代开始,然后实现AGI,这将是一个真正的飞跃,但是现在来看,他认为更像是一个连续的指数曲线,重要的是每年取得进步的速度。GPT-4肯定没有达到AGI的水平,Sam也不认为下一个大模型会达到那样的水平,不过AGI并不一定是像《星球大战》中未来城市那样宏大的场景,也许是一个人能够独当一面,完成原本需要数百甚至数千人协调配合才能完成的任务,或者帮助我们揭示所有的科学奥秘,那可能也是AGI。目前AGI最大的障碍在于新的研究突破,人工智能这个行业的研究并没有像其他行业一样预设的时间表,这意味着通常它可能需要很长的时间,但是有时候进展的速度也会远远超过任何人的预期。那么为什么人工智能的研究进展没有办法做到像工程那样的线性增长呢?Sam举了一些历史案例,以中子为例,它在20世纪初在理论中提及,然后在20年代首次被探测到,而原子弹的研究起始于30年代,在40年代成功实现,从对中子的一无所知,到能够制造原子弹,并颠覆我们对物理学的认知,这个进程展现了惊人的速度,还有就是莱特兄弟曾经预测飞行将在50年后实现,而实际上他们在1908年就成功进行了首次飞行,类似的例子在科学和工程的历史中数不胜数,当然也有很多预测中的进展从来没有实现,或者实现的速度远低于预期,但是有时候研究的进展确实非常迅速。

AI监管的必要性:控制风险,避免限制

接下来,两人谈到AI模型的监管话题,主持人提到说,人们对于OpenAI单方面利用AI并做出决策的担忧正在增加,这促使一些政府机构介入,希望由选举产生领导者,Sam认为,对当前的AI模型实施过度的监管将是一个错误,不过如果模型开始给世界带来重大灾难性风险的时候,某种程度上的监管是很有必要的,目前的问题在于,如何设定这些风险的阈值,以及如何有效地测试它们。如果因为过度担忧潜在的风险,而限制了AI技术的巨大优势,让那些希望在自家地下室训练模型的人望而却步,那将是一个巨大的损失,但是话说回来,如果以国际核武器的规则作为参照,那么对AI进行某种形式的监管也是合理的。政府机构其实并没有真正深入研究过AGI,其中很多人也曾经强烈反对过对AI的监管,认为那是无稽之谈,因为监管确实对技术行业有过负面影响,比如可以看看欧洲技术行业的现状,但是Sam也认为,现在正在逐渐接近一个监管的临界点,超过这个点,情况可能会大不相同。安全在某种程度上已经被当作了一种错误的框架,因为它更多地关注我们明确要接受什么,以航空公司为例,安全并不是一个非黑即白的概念,人们选择乘坐飞机,是因为他们认为相对安全,尽管他们知道偶尔也会有飞机失事,如何定义一家航空公司是否安全,不同的人会有不同的看法,虽然航空业已经变得极其安全,但是安全并不意味着绝对没有人在飞机上丧生,同样,医学领域我们也非常重视副作用,因为还是会有些人对药物产生不良反应。此外,安全还有它隐性的一面,比如社交媒体可能会带来的负面影响。

安全的错误框架:AI安全的另一面

在OpenAI内部,有一个称为“准备框架”的概念,可能当触发某一个特定的情境或者因素的时候,就会从重视AI研究转向重视AI安全,来应对潜在的风险和挑战。

人类与AI的关系:保持明确的界限

如今看来,即使技术发展在加速,人工智能也不太可能会一夜之间变成真正的超级智能,这个过程是渐进式的。另外一点就是,即使我们拥有了真正强大的AGI,它在短期内对社会的影响也是有限的,大多数情况下,它不会在一年或两年内产生足够大的影响,但是在十年内,世界绝对会发生巨大的变化。在这方面,社会的惯性实际上可能是一个积极的因素。

谈到追求AGI的动机,Sam认为,这是因为目前这项事业对他来说是最令人激动、最重要和最美好的,他宁愿在生活的其他方面做出许多牺牲和妥协,比如如今名气太大甚至让他无法自由的外出用餐,不过他深知这是一个充满变革的时代,不会永远持续下去,总有一天他会选择退休,享受田园生活,然后怀念现在的一切。在经历过董事会罢免事件之后,Sam深深的体会到,人类对于几乎任何事情的适应能力都远超我们的想象,我们可以很快地将任何事情当作新的常态,无论是好的还是坏的,这恰恰展现了人类一些非凡的地方,这对于人类来说是一件好事。

对于未来人类与AI的关系,Sam相信,即使随着AI开始承担更多过去仅由人类完成的任务,人类依旧会深深地关心着其他的人类,他不认为每个人都会爱上ChatGPT这种情况会发生,就像我们不会把观看机器人踢足球当作主要的娱乐爱好,但是人类会以各种不同的方式长期关心着其他人类,这一点会永远存在。在这方面,Sam非常清晰的表示,不应该把人类和AI助手混为一谈,比方说,当我们未来五年后收到朋友的短信时,会希望能够清楚地知道,这是朋友直接发的,还是由人工智能助手代为转发的,保持这种明确的界限是有价值的,而不是让一切变得模糊不清,好像AI只是我们身体或思维的延伸,我们应该能够清楚地分辨出,是在和Sam本人交谈,还是与Sam的人工智能助手交流,这样的区分是非常有必要的。

总结

好了,以上就是本次专访的主要内容,话题比较杂,零零散散聊了很多,我尽量总结归纳了核心的观点,希望对大家有帮助,我们下期再见。

本文参考自:最佳拍档大飞的作品。


本文链接:https://dinjianwenan.top/chatgpt_217.html

ChatGPT4.5GPT4.5入口GPT4.5网页版GPT4.5发布GPT4.5网址GPT4.5官网GPT4.5GPTs分润功能sora测试版256k上下文

相关文章