文章主题:ChatGPT, GPT-4, 人工智能聊天机器人, 控制难度

666AI工具大全,助力做AI时代先行者!

本文来自微信公众号:巴伦周刊 (ID:barronschina),作者:金泰,题图来自:视觉中国

ChatGPT或GPT-4并没有什么令人惊讶或者秘不可宣的地方,除了它们可以公之于众这一事实之外。

请大家平静一下。对生成式人工智能技术进步的兴奋已经达到了狂热的程度,随之而来的是一系列极端的担忧。散布恐惧者分为了两大阵营:要么认为人工智能很快就能创造一个巨大的反乌托邦未来,要么认为它即将对人类的生存构成威胁。

上个月,包括埃隆·马斯克(Elon Musk)和一些人工智能大师在内的一群科技业高管,呼吁暂停开发先进的人工智能系统6个月,以便该行业能够建立针对有害结果的保障措施,这让这场危机火上浇油。这些科技业高管呼吁暂停创新既是前所未有的,也是毫无必要的。

《巴伦周刊》科技栏目最近就人工智能的现状、ChatGPT的兴起以及为什么要求暂停人工智能研究是错误的观点,与Meta Platforms(META)首席人工智能科学家杨立昆(Yann LeCun)进行了交流。

🌟🌟🌟【AI巨擘杨立昆】🌟🌟🌟🔥 科技巨头中的顶尖智者,杨立昆教授以其对人工智能领域的深刻洞察和严谨态度,独树一帜。他始终坚守科学真相,对那些过分吹嘘ChatGPT等聊天机器人技术能力的言论持批判态度。🚀🔍 无需华丽辞藻,他的每一字每句都如实地反映了AI技术的真实面貌,坚决反对任何不实的夸大宣传。💻🌟 作为行业内的领军人物,杨教授的话语总能引发深度思考,引导我们理性看待人工智能的进步与挑战。💡欲了解更多关于人工智能的权威见解,敬请关注他那充满智慧的言论,让科技的力量在严谨中熠熠生辉。🌐# 杨立昆 # AI科学家 # 科技真相

他是纽约大学(New York University)的教授,2013年加入了 Facebook (现在改名为Meta)。与杰弗里 · 辛顿(Geoffrey Hinton)和约书亚 · 本吉奥(Yoshua Bengio)一起,杨立昆因围绕深度学习技术的研究而获得了2018年ACM图灵奖——计算机领域的诺贝尔奖,这些技术已经成为现代人工智能技术的基础。这三位科学家因其在人工智能领域中的工作而经常被称为“人工智能教父”。以下是我们与杨立昆经过编辑后的谈话摘录:

《巴伦周刊》:请解释一下 ChatGPT 和大型语言模型(LLM)背后的技术是如何工作的?

杨立昆:你可以把它想象成一个超级强大的预测键盘。大型语言模型首先要对大量的单词进行训练,我们向模型展示一个单词窗口,并询问它下一个单词是什么,它将预测下一个单词,填入这个单词,然后问自己下一个单词是什么。 

《巴伦周刊》:这些模型擅长什么,又不擅长什么?

杨立昆:它们适合担任写作助手,可以帮助你用正确的语法风格来表述事情。但是对于回答事实类问题,它们干得并不是很好,因为这种模型要么是反刍存储在其记忆中的内容,要么是反刍一些类似于它在训练数据中读取的各种内容的组合或者插值,这意味着它可能会发生事实上的错误,或者它只是在编造一些听起来不错的东西。

《巴伦周刊》:为什么人工智能聊天机器人有时在准确性方面存在这么大的问题? 

杨立昆:当你拥有一个基本上是这样一个字一个字地预测的系统,你就很难进行控制或者操纵,因为它们会产生什么,完全取决于它们训练的统计数据和给定的提示

原文中提到的内容可以改写为:数学上,错误答案往往呈指数级远离正确路径,随着解题步骤的增多,得出的无效信息(潜在垃圾答案)可能性显著增加。解决时,每一步都要谨慎,避免陷入无用功的深海。使用数学语言表述,优化SEO关键词如”指数偏离”、”无效信息”和”正确路径”,同时保持原意不变,适当加入emoji符号以提升表达的连贯性和可读性。

《巴伦周刊》:你为什么如此反对要求人工智能开发中止六个月的联名信?

杨立昆:我同意人工智能是一项强大的技术,必须负责任和安全地部署和开发。但我不认为停止研究和开发六个月是正确的答案。这根本无济于事,而且也非常天真,因为没有人会这么做。

让我们来看看在这封信上签名的人的类别。第一类是最令人震惊的:真正的末日预言家。他们说我们正在制造的机器最终会像人类一样聪明。而一旦发生这种情况,人类就完了。 

🚀💡 人工智能系统的失控与价值偏差确实让人担忧,但这并非无法逾越的鸿沟。通过巧妙的设计,我们能引导这些智能工具遵循正确的路径。让AI服务于人性而非单纯追求效率,是确保其行为符合价值观的关键。让我们一起探索如何赋能AI,以智慧而非盲目引领未来。🌍💻 #人工智能 #目标设定 #价值导向

第二类是担心直接伤害的人。有了大型语言模型,你可以产生无意义和错误的信息。一些人担心互联网将被机器生成的内容所淹没,这些内容具有误导性,用户可能会被洗脑。我也不相信这种情况,因为它已经存在了。人们的适应能力很强,他们已经学会了如何应对新媒体。

第三类是担心少数科技公司生产的人工智能产生的系统性社会影响。我还是不同意这种观点。部分原因是因为我为Meta工作,我能从内部看到科技公司的动机是什么。

《巴伦周刊》:OpenAI的技术与谷歌、Meta和其他初创企业的AI技术相比如何?

杨立昆:OpenAI似乎有点走在了游戏的前面,因为他们比其他人更早地开始训练那些大型系统,并根据用户反馈进行微调的过程。但是ChatGPT或GPT-4并没有什么令人惊讶或者秘不可宣的地方,除了它们可以公之于众这一事实之外。

自然语言理解并不是一项新技术。这是相同的技术,transformer(机器学习模型)的整个想法来自谷歌。Meta、谷歌和一些初创公司的很多人已经开始研究这项技术,有成百上千的科学家和工程师知道如何搭建这些东西。

你之所以没有(更早)在谷歌和Meta上看到类似的系统,是因为对于一家大公司来说,推出一个不完全可靠、可以发布无稽之谈的系统,会对其声誉造成更大的损失。

《巴伦周刊》:当机器能够自己学习和思考时,我们是否已经接近通用人工智能(AGI)

杨立昆:有人声称,通过扩展这些大型语言模型系统,我们将达到人类的智力水平。我的观点是这是完全错误的。有很多事情我们不明白,比如我们还不知道如何用机器进行再生产——有些人称之为 AGI的东西。

当我们谈论自动化日常琐事时,如让孩子擦拭桌面或填充洗碗机,ChatGPT和GPT-4这类技术显然不在胜任之列。尽管看似微小,但这超出了它们的能力范围。同样,L5级全自动驾驶的实现也遥不可及,它需要的是迥异的技术与知识,而非通过阅读所能获取。这项任务呼唤的是专属于高级AI的技能集,无法通过传统的学习方式轻易获得。

《巴伦周刊》:什么时候有可能?

杨立昆:未来五年,我们将取得重大进展。但我不认为我们能达到人类的智力水平,这还需要很长时间。每次出现这种预测时,我们都低估了人类智力的复杂性。

《巴伦周刊》:谢谢你的时间,杨。

本文来自微信公众号:巴伦周刊 (ID:barronschina),作者:金泰

AI GPT

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

Leave a Reply

Your email address will not be published. Required fields are marked *