Sam Altman亲自回应:GPT-5发布时间、Sora、Q*
添加书签专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!
3月19日,OpenAI联合创始人兼首席执行官Sam Altman,接受了著名媒体人Lex Fridman的深度访谈。
在这1小时55分钟的访谈中,Altman回应了GPT-5何时发布,7万亿美元造芯片,引发其被罢免离职的Q*,最近马斯克对OpenAI的起诉等。
几乎所有市面上关于OpenAI的流行话题都给予了回应。
GPT-5何时发布
前不久OpenAI最大竞争对手之一Anthropic,发布了Claude 3模型,其Opus版本在在研究生水平专家推理、基础数学、本科水平专家知识、代码等10个关键维度,超过OpenAI的GPT-4。
所以, Lex问了科技行业比较关注的话题,OpenAI何时发布GPT-5进行反击?
Altman回答的很直接:不知道。
但接着说,OpenAI今年会发布一个令人惊叹的大模型,目前不知道该如何称呼它。
在接下来的几个月的时间,OpenAI还会发布一系列产品,为正式发布GPT-5铺平道路。
既然GPT-5无法发布,Lex接着追问道“开发GPT-5有哪些技术瓶颈?”
Altman:硬件、算法、商业创新,OpenAI已经做的相当出色。尤其是在功能整合方面,我们可以将内部很多分散、细节、有趣的产品整合在一个模型中。
作为一名幸运者,我可以看到AI领域很多最前沿的东西,如果我只了解一个物品、事情是无法做到更好的技术创新,需要从更宏观的战略布局去驱动产品研发。
Q*到底是什么?
去年11月,OpenAI管理层出现了大地震,Sam Altman被董事会罢免CEO和资格。传言与OpenAI内部的神秘项目Q*有关。
Lex:Q*是什么项目?是OpenAI手中的“核武器”吗?
Altman:不是。你知道的,OpenAI很难保守各种秘密,经常会莫名其妙的就流出各种消息。
但Altman意味深长的说了一句,“我们还没有准备好谈论Q*。OpenAI喜欢探索各种新东西,但目前还没有掌握解题密码。”
Lex:那你希望OpenAI有一个Q*吗?就像ChatGPT那样迎来一个震撼人心的飞跃时刻?
Altman:从ChatGPT的迭代历史你就能看出来,OpenAI不是一下就完成的。我们发布了GPT-1、GPT-2、GPT-3等一系列模型,才有了ChatGPT的出现,这是一个水到渠成的事情。所以,Q*的出现只是时间问题。
Sora是世界模型吗?
今年2月16日,OpenAI重磅发布了文生视频模型Sora,在全球范围内再次掀起了“ChatGPT”效应。无论你是否关心AI领域,或多或少都听过Sora的大名。
Lex:Sora是世界模型吗?
Altman:当我第一次看到Sora生成的视频时,便感叹,视频中的物体会出现遮挡很快又分开了,这是一种对物理世界的理解。所以,可以勉强说成成是一个“3D世界模型”。
但目前的理解、功能、细节等方面还不够好,但Sora在持续优化变好。从OpenAI的文生图产品DALL·E 1、2到3三代,便不断地完善其功能。同样,Sora也会变得越来越好。
马斯克起诉OpenAI
今年3月初,马斯克向旧金山高等法院提出了申请,起诉OpenAI联合创始人Sam Altman和Greg Brockman等人。
主要状告内容包括OpenAI违反合同协议、违反信托义务和不公平的商业行为,在发布ChatGPT等爆火产品后转向闭源并开始盈利。这与最初的开放AI造福人类理念截然相反。
一时间让OpenAI陷入了流言蜚语中,随后OpenAI也公开了多封私密邮件进行了回应,但马斯克好像依然没有撤诉。
Lex:马斯克起诉OpenAI的本质是什么?他多数控诉好像说的都挺在理?
Altman:起初我和马斯克等人一起创立OpenAI只是一个研究型实验室。当时,我们没有任何产品,大语言模型、ChatGPT这些都不在规划中,也不知道未来的方向该怎么走,只是想尝试、探索一下AGI(通用人工智能)。
再后来的探索中,我们发现了一些有趣的事情,摸清了方向,但这需要一大批资金支持。所以,我们商量改变OpenAI的整体架构,从公益实验转变成商业模式。
此外,我们已经在官方博客列出了当年关于OpenAI转型、开源/闭源的所有事实证据。
AGI会毁灭人类吗
OpenAI创立之初的目标之一便是AGI,但在当时遭到了大部分人的疯狂嘲讽。马斯克在离开OpenAI的邮件中也说道,如果每年不烧几十亿美元想搞AGI,根本没戏。
直到OpenAI发布了GPT-4和Sora大模型,让人们意识到,原来AGI已经离我们越来越近了。
Lex:人类何时会开发出AGI?
Altman:每人个人对AGI的理解各不相同,它的功能可能是X也可能是Z,不能说实现了某种功能才定义为AGI。相反,AGI只是一个开始,会把AI和人类生活带到一个更高的领域。
我估计,未来10年内,或者更早的时间可以实现AGI。
Lex:如果开发出了AGI,它会失控毁灭人类吗?
Altman:这不是我担心的事情。这种假设我看到过很多次,是否真的会发生呢?但有一定我比较支持,对于AI确实需要合理的安全监督框架。
Altman在访谈中还谈到了很多有趣的话题,完整访谈可在Lex Fridman的YT平台中查看。非常值得一看,可以看清楚很多事情的本质。
本文素材来源Lex Fridman访谈视频,如有侵权请联系删除
END
本篇文章来源于微信公众号: AIGC开放社区