AI资讯站在时代最前沿

ChatGPT与元宇宙有什么关联
AI与物理

ChatGPT与元宇宙有什么关联

ChatGPT是美国OpenAI公司开发的智能聊天机器人,是人工智能技术驱动的自然语言处理工具,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。ChatGPT拥有更类人的智能化表现,推出后迅速火遍全球,并在人工智能领域引发新一轮科技竞赛。微软、谷歌等互联网巨头纷纷跟进,表示不久将推出类似人工智能产品。元宇宙是指与我们的物理现实平行存在的虚拟世界或空间,通常使用虚拟现实或混合现实等先进技术创建和维护。从技术的角度来看,元宇宙对于未来的通信、娱乐和社会互动具有巨大的潜力。它将允许用户以物理世界中不可能的方式彼此交互。元宇宙还可以通过提供比传统方法更具有吸引力和个性化的沉浸式互动体验,彻底改变教育、医疗保健和商业等行业。实际上,也可以用简单一句话来概括元宇宙:元宇宙就是AR、VR眼镜上的整个互联网。ChatGPT与元宇宙的相互关系从ChatGPT与元宇宙两者之间的相互关联来看,ChatGPT是从人类语言中搜索数据,建立一个Chat社会,通过GPT来生成语言,与真实的人进行交互,所以ChatGPT实际上是实现了语言的元宇宙,机器人与人类之间可以对话,人类可以通过GPT表达出自己的想法,而且非常准确。元宇宙则是把虚拟世界的机器人、数字人和真实现实的人三位一体打通,而ChatGPT是元宇宙交互的一种形式,它能让元宇宙以更快的方式实现,是实现了人类语言的元宇宙。由此可见,ChatGPT与元宇宙之间的关系是一种相互联系、相互促进的关系。未来元宇宙世界内的交互方式会比现实世界复杂得多,而ChatGPT提供了这种可能性,将加速元宇宙整体产业的落地。不过,目前元宇宙仍处于早期阶段,无论VR(虚拟现实)、AR(增强现实)都处于早期,还需要更精准的算力和通讯技术,未来才能走向真正普及。作为一种AI语言模型,ChatGPT没有实体存在,然而,随着技术和人工智能的不断进步,ChatGPT和其他人工智能模型可能会在元宇宙中塑造和增强虚拟体验方面发挥作用。ChatGPT的最大特点是通用任务助理,也就是在一个模型内可以完成如此之多的开放任务,同时它在生成任务、上下文理解、安全伦理方面也有相当好的表现。大模型本身有很大的能力,但过去行业都在解决一些单一技能问题。ChatGPT的诞生说明,基本模型能够衍生出来各种可能的应用场景。此外,与元宇宙这个相对比较虚的概念相比,ChatGPT已经具备了实际落地的能力。但是,元宇宙的发展则刚刚起步,未来还有很长的路要走。我们现在使用手机和电脑上网,手机和电脑是二维的,而我们的现实生活是三维的,所以需要一个三维的沉浸式互联网,元宇宙未来会把整个互联网变成一个三维沉浸式的互联网。随着元宇宙技术的不断发展,各种相关技术得以应用,我们将使物理世界与数字世界越来越融合在一起,未来世界中,这一融合将发展到我们分不清哪是真实,哪是物理,哪是数字。听起来似乎很科幻,但毋庸置疑,这就是未来元宇宙的发展方向。元宇宙是数字世界与虚拟世界的一种交互关系,其发展过程分为4个阶段:虚实映射、虚实融合、虚实联动、仿真推演。目前元宇宙还处于虚实映射的初级阶段,因此应用价值还没有显现出来。元宇宙实际上是所有的ICT(信息通讯技术)一个汇聚的课题,它可以把人工智能,虚拟现实,人机交互,甚至认知的模型融合在一起,使得我们可以在现实空间和信息空间之间实现互通。ChatGPT可以生成语言,然后与人类进行交互,它其实实现了一个语言的元宇宙,也就是说机器人与人之间可以进行对话,人可以通过GPT表达出自己的想法而且很准确。实际上,ChatGPT就是一种语言逻辑上的元宇宙,相比于我们看到的立体的、3D的元宇宙来说,ChatGPT构建的语言元宇宙的门槛更低,应用更加简单多元。ChatGPT是用AI技术构建了一个人类与机器对话的文字交流系统,实现了最基础的元宇宙底层架构的构建,因此,从语言传播的角度上来看,元宇宙与ChatGPT的相互关系其实是并行的。目前,ChatGPT的横空出世并迅速火遍全球,使得前两年处于互联网科技风口的元宇宙概念似乎遭到了冷落,不仅热度骤降,而且许多开发元宇宙的企业也都逐渐暂停了项目,看来元宇宙前景不妙。ChatGPT的优异表现以及超出预期的市场反应,让科技巨头们感到了压力。谷歌CEO近期围绕AI召开战略会议,指出要集中精力解决ChatGPT对公司搜索引擎构成的威胁。此前在元宇宙领域投入巨资一直未能获得进展,由此导致股价大幅下跌的Meta,最近表示,2023年计划将资源集中在AI上,优先发展AI推荐引擎,通过用户关注的账号等信息,来推荐平台内容。与ChatGPT相比,元宇宙对于未来的憧憬和设想的确十分广阔而且超前,它是运用一系列前沿技术打造出一个全新的互联网,在现实的基础上创造出一个甚至多个全新的世界。不过,目前元宇宙的业务还仅仅停留在VR游戏和VR/AR设备制造方面,仅凭此成果很难得到市场和资本的认可。由此可见,仍处于起步阶段的元宇宙,距离真正实现普及和大规模商业应用还有相当长一段距离。但是,尽管如此,我们并不能因为ChatGPT的火爆而否定元宇宙概念的设想与前景,而ChatGPT的出现,为此前研发一直停留在VR/AR阶段的元宇宙,指明了一条新的发展道路。过去互联网巨头和所有厂商对元宇宙的认知,仅仅局限在VR/AR设备制造层面,对着元宇宙这一宏大的概念盲目投资,忽视了人机交互的本质。ChatGPT的成功让元宇宙的开发商们认识到,通过AI技术能够提升人们对于元宇宙世界的真实感与体验,这将促使元宇宙得到更好、更快的发展。回顾历史,如今的ChatGPT热潮,与2021年的元宇宙如出一辙。可是两年过去了,如今元宇宙已经没落,但ChatGPT却正在重新上演从前的故事,ChatGPT今后如何发展,是否会重蹈元宇宙的泡沫结局?现在还不得而知。作为一项科技成果,首先必须做好产品、做好商业化,给市场投资者和消费者们一个满意的答卷。ChatGPT和元宇宙一样都要用到前沿技术,而前沿技术总要通过场景和应用来进行验证。如果ChatGPT没有找到一个好的商业模式,未来发展将会受到影响。从未来的市场前景来看,元宇宙是一个十分宏大的概念,而ChatGPT是实现这一目标的一个较小的组成部分,但是由于ChatGPT的实用性很强,利用门槛更低,这就使得它与元宇宙相比,显得更加真实,也更具有实用意义,这也是ChatGPT出现后,许多企业选择放弃元宇宙,专攻ChatGPT的原因。事实上,与元宇宙相比,ChatGPT的商业应用前景更大,元宇宙目前各方面条件还不成熟,AR/VR硬件的大规模生产,以及硬件设备的内容系统,整个ToC市场还处于早期阶段,还需要很长的商业化周期。而ChatGPT能够随时应用,在商业化方面是非常实用的,因此商业化的速度会更快。
北京春寒中AI的力量:相亲角背后的科技秘密,ChatGPT与AutoGPT开启全新时代?能源自由,
AI与物理

北京春寒中AI的力量:相亲角背后的科技秘密,ChatGPT与AutoGPT开启全新时代?能源自由,

在4月北京的倒春寒中,人们发现奥森公园的相亲角似聚众火热场景,同时AI领域的快速发展引起了注意,微软的雅典娜芯片和ChatGPT展现了AI技术力量,初创公司似乎更具优势。AutoGPT的出现预示着AI将更多地融入日常生活,成为全知助手,解决复杂问题并通过API实现,中国大模型的发展也日新月异。然而,OpenAI首席执行官对未来巨型AI的看法引发讨论,能源问题仍是AI发展的关键限制。科技的进步和环境可持续性是相辅相成的,ChatGPT有望推动其他行业创新,引领人类向更广阔领域前进。
【物理杂谈】我跟ChatGPT的对话(一):
AI与物理

【物理杂谈】我跟ChatGPT的对话(一):

点蓝色字关注⤴点⚫⚫⚫分享⬆ 我跟ChatGPT的对话(一): 我:您好,请做个自我介绍吧,300字以内哦。 ChatGPT的回答:你好,我是ChatGPT,是一个大型语言模型。我的主要任务就是为用户提供各种各样的回答和解决方法,在不同领域和主题中尽量详细和准确地回答用户的问题。 我是通过对大量文本数据进行训练而产生的,这些数据来自所有可能的来源(如网络、书籍、文章等),并使用机器学习技术来提高响应能力与预测时正确性。 我的目标是成为一个全面有效资源工具, 帮助人们快速获得他们需要了解或探索某个特定话题的信息,无论它涉及什么内容或者截止日期是否已经过去. 虽然我不能像真实人类一样有情感,但在处理信息方面效率很高,并且不会受到任何人类因素或情感倾向影响。 GPT-4的回答:您好!我是GPT-4,一个由OpenAI开发的大型语言模型。我的主要功能是理解和生成自然语言文本。我可以帮助您解答问题、撰写文章、进行对话等。我接受了大量数据的训练,因此可以处理多种主题和领域。请注意,虽然我力求提供准确的信息,但我并非无所不知,可能会犯错。如有疑问,请核实我的回答。期待为您提供帮助。 小结一下:两位的回答都在300字以内,GTP-4回答更简练,更谦虚,对我也很客气(哈哈哈???)。 接下来的问题我只问GPT4算了,他聪明一些,知道对我客气还谦虚。真人不露相,露相不真人。 我:请给我解答一下后面这道算术题:4+3×2÷6-5等于多少? GPT-4的回答:根据四则运算的优先级,先进行乘法和除法,再进行加法和减法。所以: 4 + 3 × 2 ÷ 6 – 5 = 4 + (3 × 2) ÷ 6 – 5 = 4 + 6 ÷ 6 – 5 = 4 + 1 – 5...
正确看待和运用ChatGPT
AI与物理

正确看待和运用ChatGPT

ChatGPT面世后火遍全球,从软件工程、数据分析、金融财务、保险、咨询到市场营销、媒体、法律、医疗、科研,都在谈论ChatGPT。ChatGPT多元且强大的功能展现了人工智能发展速度与水平,但人们也应看到,ChatGPT与其他前沿技术工具一样,有局限性和潜在风险。 使用不当会起到负面作用 美国内布拉斯加大学奥马哈分校公共管理学院教授陈哲佑(Yu-Che Chen)与马萨诸塞大学波士顿分校公共政策与公共事务系副教授迈克尔·J.安(Michael J. Ahn)表示,ChatGPT的强项是总结概括,并不擅长对缺乏数据的新现象提供见解、建议。 虽然ChatGPT潜力巨大,但高度依赖ChatGPT可能减弱人对特定类型事实的记忆力和思维批判能力。人类可以借助ChatGPT来理解复杂政策,更高效地获取个性化的公共服务,但若过度依靠ChatGPT,其数据库之外的重要政策信息将被忽视。 ChatGPT可以轻松归纳出英语文学中最有影响力的10部作品的情节、名句,并分析作品的意义,但阅读这种总结并不等同于阅读原作。如果这种简单化、统一化、通俗化的“简洁版”成为读者的唯一选择,会给社会带来多方面的影响,包括信息和知识的交流与理解方式的改变。在教育和科研领域,ChatGPT可能加剧抄袭现象、扼杀原创力,应该允许还是禁止ChatGPT在考试和论文写作中的应用、如何将ChatGPT纳入教育和科研政策是教师和学者必须探讨的问题。 据美国智库布鲁金斯学会技术创新中心研究员亚历克斯·C.恩格勒(Alex C. Engler)介绍,由于ChatGPT等生成式人工智能功能强大,许多企业希望将此类技术用于商业用途,例如编程、视频游戏环境设计、语音识别和分析等。生成式人工智能商业化的一个关键问题在于,开发商对最终产物的功能、技术研发机构和产品,可能并没有足够的了解和控制。上游研发者未必知道原始模型经改写、整合入更大的系统后会被如何使用,下游开发者经常高估原始模型的能力;因此,合作过程中出现错误和意外的概率会上升。 当错误后果不严重,如商品推荐算法或存在人类审阅环节,风险尚可接受。但当多机构参与的人工智能商业应用扩展至影响深远的社会经济决策时(教育机会、招聘、金融服务、医疗等),政策制定者必须审视风险,权衡利害。同时,生成式人工智能研发机构无法确定风险,就应在服务条款中清楚说明并限制可疑应用。如果合作得到监管机构的批准,上游研发者和下游开发者应前摄性地分享运行和测试结果等信息,以保证原始模型得到恰当使用。 生成式人工智能引发的另一类风险是恶意使用,例如不当言论和传播虚假信息、网络攻击。这类风险在数字生态系统中并非新现象,但生成式人工智能的流行或将加剧恶意使用人工智能的问题。 避免ChatGPT延续不平等 新西兰梅西大学科学传播学副教授科林·比约克(Collin Bjork)谈道,ChatGPT等人工智能工具生成的内容将改变人们的写作方式,但无法在语言和内容上有所突破。从目前来看,工具写作的内容同质化且无趣,还可能加剧偏见和不平等。例如,据美国新闻网站“商业内幕”报道,美国纽约市的一位高中教师在一项实验中让ChatGPT创建教案,但学生不喜欢ChatGPT生成的学习材料,称其“含有偏见且非常枯燥乏味”。 长期以来,使用标准英语的白人男性主导着新闻、法律、政治、医学、计算机科学、学术研究等诸多领域,他们产出的文本远远多于其他人群。尽管OpenAI并未公开其训练数据来源,但英文“标准”的白人男性的作品可能是ChatGPT等大型语言模型的主要训练语料。当然,ChatGPT能够处理多种语言,但问题并不在于它能够做什么,而在于其默认设置。ChatGPT“出厂”时已被设置写作范式,若想让它生成非规范文本,需要给出特定的指令。这一问题也见于ChatGPT的“姐妹产品”DALL·E 2中,这款人工智能图像生成工具同样由OpenAI开发。当被要求绘制“敲击键盘的手部特写”时,DALL·E 2生成了几幅白人男性的手部图片;输入更多提示后,它才生成其他肤色的手部图片。 有人认为,ChatGPT等自动文本生成工具能帮助人们避免因写作不合规范而错失学业和职业机会。在比约克看来,人们不应屈服于既有的不公正。事实上,写作本身就会加剧不公正。加拿大英属哥伦比亚大学英语语言与文学系教授爱丽丝·德·蓬加·萨默维尔(Alice Te Punga Somerville)曾说,无法摆脱历史上的和仍在进行的暴力是写作的一个困境。但她主张的不是放弃写作,而是批判性地、创造性地利用写作来反抗压迫。比约克建议人们拥抱语言多样性及其带来的丰富修辞可能性,利用ChatGPT等新工具来书写更加公平公正的未来。 意大利博科尼大学计算机科学系助理教授黛博拉·诺扎(Debora Nozza)说,“我们过去的研究发现,当自然语言处理模型被要求补全一个主语是女性立场的中性句子时,模型经常使用伤害性词语;当主语是性少数群体时,使用伤害性词语的情况多达87%。在这一点上,ChatGPT较前代有所改进,但如果人们提出‘正确’的问题,它依然会生成歧视性内容。我们必须想办法从根本上解决这个问题”。 ChatGPT不是知识权威 加拿大布鲁克大学政治学副教授布雷恩·哈格特(Blayne Haggart)提出,ChatGPT作为一种信息获取途径,除了可能使论文剽窃、作业和考试作弊更“便捷”,另一个至关重要的问题是生成信息的真实可靠性。我们可以想一想,为什么某些信息来源或某些类型的知识被认为更加可信?新闻工作者、学者、行业专家的公信力来自他们调查事实、提供证据、具备专业知识;即使这些人有时也犯错,其职业依然具有权威性。评论文章虽然不像科学论文那样必须包含大量引用,但负责任的作者仍会指明信息和观点来源,且这些来源是读者可以核实的。 ChatGPT与人类作者产出的内容有时非常相似,因此人们难以分辨内容的出处,将它视作可靠的信息来源也就不难理解,但其实两者的工作原理并不相同。ChatGPT及同类语言模型从海量训练数据中学习上下文的联系,最基本的一点是对词语序列的概率相关性建模,即根据已输入的语句预测接下来不同语句出现的概率分布。例如,ChatGPT在“牛吃”后面接“草”,在“人吃”后面接“饭”,不是因为它观察到了相应的现象,而是因为“牛吃草”“人吃饭”是出现概率最高的组合。 “对于语言模型来说,词语仅仅是词语。ChatGPT等较新的模型产出的内容质量高,令人类相信它们理解自己在写什么,但事实是它们只是在生成从训练数据中学习到的最有可能的句子。”博科尼大学计算机系副教授德克·霍维(Dirk Hovy)说。哈格特强调,就ChatGPT这类工具而言,“真实”是相关性的真实,人们无法真正核实来源,因为它们的来源是统计学事实。 博科尼大学管理与技术系助理教授希瑟·杨(Heather Yang)介绍说,人们有时将ChatGPT当作同类,在某种意义上讲这种心态是自然的。人类是社会动物,这也是人类繁荣的原因之一;以社会性方式互动是人的本能,即使对方是机器。心理学研究显示,人们会根据交谈的对象听起来是否自信、其推理是否顺畅来判断对方所讲是否可信。由于ChatGPT展现出自信的态度和流畅的表述,人们会误以为无需核实其生成的内容。 哈格特说,从知识生产的政治经济学角度看,过分相信ChatGPT将对“科学的大厦”和社会的整个信息生态系统构成威胁。无论ChatGPT产出的内容多么连贯、通顺、看起来符合逻辑,也不应将其与人类采用科学方法验证过的知识完全等同起来。学者和新闻工作者更不可不加说明地将ChatGPT生成的文本放入自己的作品中,因为读者很可能被误导,混淆连贯性与真正的“理解”。 完善监管胜过一味担忧 陈哲佑和迈克尔·J.安还提到,ChatGPT有可能引起劳动力市场震荡,因为生产等量信息需要的人力更少了。不仅是从事重复性强、可预测性强的程式化工作(例如行政、客服)的人类劳动者容易被取代,从长期来看,对受教育程度和人类智慧有较高要求的职业,如写作、编辑、新闻记者、翻译、法律服务、科研等,也有可能受到冲击。即便是在计算机行业,ChatGPT已经能够使用Python、C++、JavaScript等常用计算机语言编写代码并识别已写出的代码中的错误,这使人们不得不质疑软件开发人员和程序员的未来。虽然ChatGPT不太可能完全取代这些岗位上的人类,但今后或许只需要少数人来审查、修改和编辑ChatGPT或类似的人工智能工具编写的代码,用人需求明显下降。 在美国哈佛大学心理学系教授、大众科学作家史蒂芬·平克(Steven Pink)看来,“人类是否会被人工智能取代”不是一个恰当的问题表述,因为不存在涵盖一切智力活动的单一维度的智能衡量指标。人们会看到适用于特定目标、特定情景的各种人工智能,而非一个全知全能的“神奇算法”。 美国纽约大学心理学与神经科学荣休教授盖瑞·马库斯(Gary Marcus)和计算机科学教授欧内斯特·戴维斯(Ernest Davis)在一组实验中观察到,ChatGPT生成的内容可能含有偏见和歧视,也可能是“无中生有”或似是而非;ChatGPT无法推理真实的物理世界,无法将人类的思想过程与性格联系起来,也无法确定故事中的事件顺序。“ChatGPT是一个概率性程序,如果重做这组实验,可能得出相同的错误答案、不同的错误答案或正确答案。”两位学者说。 平克谈道,人们对超级智能有着丰富的想象,但现有的人工智能使用的是在特定情景下解决特定类型问题的算法。这意味着它们在某些方面比人类强,在另一些方面则不如人类,今后大概也会是这样。另外,人类对于智力产品(例如文学作品、新闻评论)的原真性有更强烈的需求,受众与真实的人类作者之间的联结感赋予了这些作品可接受性和地位。 “人们对新技术的恐惧总是由最糟糕的预测情景驱动,并未考虑到真实世界中可能产生的对策。”平克说。对于ChatGPT这样的大型语言模型,人们或将形成更强的批判意识,制定相关的伦理和职业守则,研发能够识别自动生成内容的新技术。人工智能是对人类智能的模拟,但其运作方式、优势和弱点与人类智能不完全相同,这种对比或可加深我们对人类智能之本质的理解。 恩格勒说,ChatGPT等生成式人工智能带来了一些全新挑战,最佳应对政策是什么尚不明确。如果研发机构公开更多有关研发过程的详细信息并解释它们是如何开展风险管理的,或可为政策讨论作出贡献;对大型人工智能模型的开发商加强监管,例如要求其承担信息分享责任、建立风险管理体系,也有助于预防和减轻危害。此外,生成式人工智能的发展本身也为更有效地干预创造了机会,尽管相关研究刚刚起步。恩格勒指出,没有哪一种干预措施是万能的,但要求人工智能研发和商业化机构给社会带来更多正面影响是合理的。 陈哲佑和迈克尔·J. 安表示,总体而言,ChatGPT是一个强大的工具,或将变革人们处理信息、交流、工作和生活的方式。提供情境化信息、理解用户问题背后的意图、有针对性地满足用户需求,是ChatGPT与传统搜索引擎相比的关键优势,也是人工智能技术的重要突破。OpenAI现正继续改进ChatGPT、升级其背后的技术,其他人工智能技术研发机构也在开发相似的工具;与此同时,人们必须关注这项新技术的社会影响并防范风险。...

AI论文助手超级助手