文章主题:AI, 创业, 奥特曼
奥特曼简单一句话,让AI创业公司瑟瑟发抖:
“套壳”OpenAI,注定消亡!
这是在最新YC校友分享会上,OpenAI CEO奥特曼发表的演讲观点。为此他还特意补充道:尤其别花太多精力在UI界面上。
一时间引发共鸣无数。不少业内人士表示:
现实是,我就在目睹很多这样的事情发生。
除了这句话以外,奥特曼这段演讲中可谓金句频出,个中不少“干货细节”,也被大伙儿纷纷摘录转发。
包括GPT-5、6的进展,关于AGI未来趋势的看法,以及亲身创业的种种。
比如,“AI女友”只是个美丽的陷阱,千万不要轻易尝试。
特意取个ChatGPT这样很像机器的名字,人类就不会对它产生感情。
听完演讲后的网友,甚至将之形容为“金子一般的收获”。
所以奥特曼究竟在这场演讲中分享了啥?一起来看看。
“简单学我者死”
在2023年的YC校友 reunion上,奥特曼分享了一些富有创意的创业建议。根据一些热情网友的归纳总结,主要涵盖了以下三个方面:
简单包装OpenAI的公司活不长久。
看好AI医学顾问、AI个性化一对一辅导等方向。
盲目筹资是非常不明智的。
第一点对于简单包装,奥特曼举例比如有公司正在解决GPT模型的小缺陷,尤其只在界面上做文章的。
一来,OpenAI已经在解决大部分工作了;二来,这些仅在成本和速度上与OpenAI一较高下的公司,竞争优势并不会长久且持续。企业必须在提供真正独特的价值。
前段时间,红杉资本指出生成式AI已经进入到了第二阶段,即从炒作和快速展示向真正有价值和完整的产品体验转变。这一观点引发了网友们的广泛讨论。
种种观点,其实不谋而合。
不少业内人士都表示了肯定:
不要把自己放在菜板上,被OpenAI的下一个版本杀死。
(嗯,有官方逼死同人内味了)
尽管有人认为这种观点过于浅显,但我仍然认为它包含了一些有价值的见解。首先,它暗示了垄断现象可能带来一定的积极影响,而不仅仅是负面的后果。其次,它指出了先发优势在某些情况下可能会导致成功,但这并不意味着竞争就会停滞不前。事实上,正是由于竞争的存在,我们才能不断推动技术的发展,从而使ChatGPT等人工智能系统更加完善。正因如此,我们不能仅仅因为这一观点的缺陷就否定其价值,而应该从中汲取有益的信息,进一步促进人工智能领域的发展。
既然如此,那有哪些方向是值得一做的呢?
第二点,奥特曼看好AI在医学、教育上的赋能——AI医学顾问以及AI个性化一对一辅导。这两者社会价值都十分巨大。
比如在教育场景,OpenAI自己也十分积极。
据报道,OpenAI正计划创建一个名为“OpenAI学院”的教育项目,计划在2023年底正式启用。据推测,该学院可能成为一个开放、免费的在线教育平台,让更多人能够从中受益。在此平台上,教师将有机会与OpenAI的GPT-5系统展开互动,从而在教学过程中获取实时反馈和宝贵指导。
在此之前,OpenAI在其GPT-4客户案例中展示了两种教育应用场景。其中,GPT-4能够化身为AI学习助手,既能为学生提供虚拟导师的服务,也能协助教师准备和优化课件。
第三点,没有计划的盲目筹资非常不明智。别以为有钱了就万事大吉。
总结的网友还顺带说了句:奥特曼能做,不代表你也能做。
GPT-5究竟长啥样?
另一个热度极高的话题,就是OpenAI的下一代大模型——GPT-5和GPT-6。
对此,奥特曼在演讲中也剧透了下一代大模型的长相,但不多:
GPT-5和GPT-6将具备多模态输出能力,相比现有的GPT可靠性更高、个性化定制体验更好。
多模态能力的提升,据网友们预测,将能够更有效地处理诸如图像标注、视觉问答等NLP与视觉场景对齐的任务。
考虑到奥特曼曾暗示GPT-5将拥有包括语音识别、合成以及情绪检测在内的全新功能,我们有理由推测GPT-5将会具备处理各种模态信息,实现图文听说模态对齐的能力。
借着GPT-5和GPT-6的话题,奥特曼还给大模型“布了个道”:
现在,大模型领域的“摩尔定律”(Scaling Laws)已经开始发挥作用。大模型训练成本正变得更低、调用GPT接口的价格将变得更便宜。
Scaling Laws是OpenAI在2020年提出的一条重要原则,它简明扼要地阐述了模型性能与规模之间的关联。根据这一定律,我们可以得出结论:当模型的大小、数据集的大小以及用于训练的计算浮点数均有所增加时,模型的表现力和性能将会得到提升。换言之,只有在各个层面上都实现增长,模型的性能才能得到充分发挥。
奥特曼认为,随着未来能源和计算成本快速下降,更强大的AI能力将会出现,“此前不敢想象的很多东西会被做出来”。
但即便大模型前景如此光明,奥特曼表示“距离AGI之路都还有很远”——无论是GPT-5还是GPT-6,都还远远不及AGI。
甚至光是“像人”这一标准,现阶段就还没AI Chatbot能做到:
即使背后用上了最前沿的AI技术,也没让我感觉到在和一个“人”聊天。
奥特曼指出,要达到真正的人工智能(AGI)水平,必须具备“自主推理”的能力。换言之,只有随着时间推移不断生成新知识的AI,才能达到AGI的最低标准。例如,一个能够运用物理学现有知识撰写论文、实施实验的AI,才算是真正符合AGI的要求。
不过无论如何,都应该谨慎对待AI的输出结果:
人们会原谅人犯错误,但不会原谅计算机,二者的标准是不一样的。
对于AGI时刻的来临,奥特曼也给出了一个想象:
到那个时候,人们可能会经历一定程度的自我认同危机,但不会太糟糕和混乱。我们经历过很多次这样的时刻,技术终将变得无处不在。
“一个本科生坚持的结果”
最后,关于ChatGPT本身,奥特曼还cue到了两个小小的“花絮”。
其一,ChatGPT之所以叫ChatGPT,没有像人名的昵称,就是因为奥特曼不想往“AI女友”产品的方向上走。
其二,ChatGPT并非OpenAI最初就“倾力投入”的一个项目。
由始至终,OpenAI甚至只有一个本科生坚持做大模型方向的研究,其他人或多或少都转向过机器人、或是游戏AI等其他领域“发发论文”。
这个只搞大模型的本科生,就是Alec Radford,如今在谷歌学术上的论文引用次数已经达到9.6w+。
2016年,Alec Radford于富兰克林·欧林工程学院(Franklin W. Olin College of Engineering)取得学士学位,随后加入OpenAI,一干就是7年。
正是他所坚持的大语言模型路线,改变了OpenAI公司、乃至整个AI领域的发展方向。
对此,奥特曼半调侃半认真地表示:
招聘时,记得关注那些“看起来不会加入公司”的人。
OpenAI一开始并未确定大模型这一研究方向,但我们仍然招了AI研究员,并在取得突破后让更多人加入其中,最终成就了ChatGPT。
结合OpenAI招聘人才“不限行业”的规定,打破惯例看来已经成为这家公司获得灵感和活力的新动力了。
参考链接:
[1]https://twitter.com/sama/status/1705751665293554120
[2]https://www.linkedin.com/posts/ibamasood_chatgpt-can-now-hear-see-and-speak-nervous-activity-7112087060068368384-0OXb/
本文来自微信公众号:量子位(ID:QbitAI),作者:杨净、萧箫
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!