AI浪潮中的碰撞与融合:低代码未来与AIGC的深度探索
AI与英语

AI浪潮中的碰撞与融合:低代码未来与AIGC的深度探索

《数字价值观察室》栏目聚焦企业数字化问题,深度访谈专家探讨AI技术进步与低代码影响。随着ChatGPT等AI应用的热浪,AI自动生成内容(AIGC)引发产业关注,传统的低代码开发模式面临重构。本期直播汇聚资深专家,将讨论AIGC与低代码碰撞中的创新和企业应对策略,嘉宾们将从流程自动化、行业数字化转型以及AI智能编程等多个角度进行深入分析。
揭秘GPT:从Transformer到ChatGPT的革命性自然语言之旅?🚀
AI与英语

揭秘GPT:从Transformer到ChatGPT的革命性自然语言之旅?🚀

GPT 模型的原理与发展历史 GPT 模型简介 ChatGPT 从零到一打造私人智能英语学习助手 download:https://www.zxit666.com/6073/ GPT(Generative Pre-trained Transformer)模型是一种由OpenAI发布的大型自然语言处理模型。它是基于Transformer架构并通过预训练的方式进行训练来生成自然语言文本。 GPT模型被广泛应用于文本生成、对话系统、机器翻译等领域,已成为自然语言处理领域的重要里程碑之一。 原理 GPT模型的核心是Transformer架构,它采用了一个encoder-decoder结构,其中encoder将输入序列转换为隐藏表示,decoder使用该隐藏表示来生成输出序列。 在GPT中,模型是以无监督的方式进行训练的,即它学习自然语言文本的统计规律,并将这些规律编码到模型中。GPT模型采用了一种称为“掩蔽语言模型”的方法,在这种方法中,模型需要预测给定上下文下的下一个单词。 此外,GPT模型还使用了BERT(Bidirectional Encoder Representations from Transformers)模型中的一些技术,如Masked Language Modeling和Next Sentence Prediction等。 发展历史 GPT模型的前身可以追溯到2017年,当时Google推出了Transformer模型,它是目前最先进的自然语言处理模型之一。 2018年,OpenAI发布了第一个GPT模型,它使用了Transformer架构并在大规模文本数据上进行了预训练。这个模型在各种自然语言处理任务中表现出色,但是它只能生成短文本。 为了解决这个问题,OpenAI于2019年发布了GPT-2模型,这个模型具有比原始GPT更多的参数和更高的性能。它被证明在多个自然语言处理任务中表现优异,并被用于创造令人惊叹的自然语言生成结果。 最近,OpenAI发布了GPT-3模型,它是迄今为止最先进的自然语言处理模型之一,拥有1750亿个参数。GPT-3可以实现广泛的语言任务,包括生成文章、回答问题和编写代码等。 结论 GPT模型的发展历程证明了深度学习技术在自然语言处理领域的重要性。随着模型规模的不断扩大和算法的改进,我们可以期待GPT模型在未来将更好地支持各种自然语言处理任务。
教育界如何应对ChatGPT?上外开启AIGC规范探索之路
AI与英语

教育界如何应对ChatGPT?上外开启AIGC规范探索之路

最近,ChatGPT火遍全球。作为一款生成式人工智能软件,ChatGPT可以根据议题完成包括回答问题,撰写文章、论文、诗歌在内的多种工作。面对以ChatGPT为代表的生成式人工智能技术的崛起,教育界将面对何种挑战,又该如何应对? 2月25日举行的“ChatGPT与教育创新”专题研讨会上,始终重视智能技术支持教育教学创新的上海外国语大学就率先“接招”。在中国人工智能技术学会智能教育技术专业委员会陈向东、范国睿等专家的建议下,该校教务处计划下一步将推出生成式人工智能(AI Generated Content,AIGC)学生使用规范和教师使用建议,内容包括AIGC工具(例如ChatGPT)的合规使用、AIGC的应用示范、AIGC的风险判断、AIGC学术不端的界定、作业中AIGC使用申明、课程作业工具限制要求等。这将是国内高校在建立课堂、作业和评估中的AI工具使用规范上迈出的积极探索步伐。 此次研讨会由中国人工智能技术学会智能教育技术专业委员会、上海外国语大学多语种智慧教育重点实验室联合承办。会议邀请了来自华东师范大学、北京大学、上海交通大学、上海外国语大学、南京航空航天大学、浙江工业大学等十余所高校的教育技术、学习科学、计算机科学、哲学、语言学习等领域的国内外著名专家学者共同参与,从不同研究视角探讨ChatGPT等生成式人工智能技术对教育领域的冲击与影响,以更好地推动跨学科研究与应用发展。 面对ChatGPT改变教育的方式,与会专家认为,ChatGPT采用的反馈学习模型是人机融合的进步。ChatGPT在教育领域的具有一定的优势及局限性,其优势包括:个性化学习、交互式、可用性、服务特殊人群、低成本等。互动性有限、存在数据偏差、缺乏同理心与理解力等则是其局限性。此外,ChatGPT也会对未来教育资源、教育评估,智能教学系统产生相应影响。 教育工作者该如何面对ChatGPT的挑战?专家分析指出,ChatGPT带来的价值受到众人追捧,但未来需要面临的挑战也随之显现。教师首先要加强智能伦理的教育,正确地认识ChatGPT的辅助学习定位。学校则需要基础制度与技术来规范ChatGPT的使用。此外,教师也要对教学进行改进,探索如何从知识性教学转向思维教学,如批判性思维,创造性思维,甄别性思维等。在布置作业的方式上要有针对性的改良,强调综合运用知识解决具体问题。 专家们认为,从哲学角度而言,当前ChatGPT还没有自我意识。在人类的的学习中,第一是感知外部世界来接收数据,第二是接收数据之后进行再处理。面对接收的数据,人会拒绝,但是人工智能不会拒绝。人工智能遵循给定的数据给出既定的回答,从这个意义上来说,否定性是人类最重要的创造。而否定在教育里最突出的就是批判性意识,但当前学生的批判性意识并不理想。因此教育真正需要培养什么样的人是值得教育工作者不断去思考的。 在基础教育领域的专家看来,面对ChatGPT技术应抱着积极、谨慎的态度。一方面,ChatGPT可以更好地推进教育数字化转型,帮助教师进行个性化辅导,另一方面教师也需要规范应用。在类似于ChatGPT的模型持续出现的背景下,建议积极推进中小学人工智能教育,培养学生人工智能思维。 在长达四小时的激烈研讨中,专家们基于自身不同的学科背景和关注角度详细地分析了ChatGPT的设计逻辑、功能演化、应用模式、潜在问题等,从多方面探究了ChatGPT的发展给教育领域带来的影响与冲击,并从积极角度探索ChatGPT的发展会给教育带来哪些深层次的变革。上海外国语大学多语种智慧教育重点实验室成员以及部分博士、硕士生代表也围绕ChatGPT算力提升、服务教学、知识垄断、文化霸权、人类潜能等方面分享了意见。 作者:王星 编辑:王星 责任编辑:唐闻佳 *文汇独家稿件,转载请注明出处。
ChatGPT心智相当于9岁人类小孩?《西游记》最贵女演员,租飞机请来出镜3分钟,却让观众记了30年
AI与英语

ChatGPT心智相当于9岁人类小孩?《西游记》最贵女演员,租飞机请来出镜3分钟,却让观众记了30年

要问最近网上最火的科技名词是什么,那一定是“ChatGPT”和“人工智能”。由OpenAI开发的智能聊天机器人ChatGPT,能够回答人们提出的各种问题,可以根据人提出的要求生成文章、翻译外语,还有写代码的本领。 其实,ChatGPT并非第一个具备这些功能的人工智能,只不过,它的能力和之前的人工智能比起来,几乎是质的飞跃——能和人类有问有答不说,写出的文章居然也像模像样。许多人猜测,ChatGPT标志着人工智能领域的又一次重大突破。 一时间,许多研究者都开始关注ChatGPT,仔细研究它的各种能力。 2月11日,斯坦福大学的计算机科学家米哈尔·科辛斯基(Michal Kosinski)提交了一篇名为《心智理论可能从大语言模型中自发涌现》(Theory of Mind May Have Spontaneously Emerged in Large Language Models)论文的预印本,又增加了ChatGPT的热度。 所谓“大语言模型”,指的就是以ChatGPT为代表的一类人工智能。研究者利用心理学测试,发现GPT-3.5这个版本的人工智能(目前流行的ChatGPT源自GPT-3版本。)已经产生了一定的“心智理论”(也经常翻译为心理理论)。几天的功夫,中文互联网上就出现了各种解读。有人说这个人工智能已经具备了九岁孩子的同理心;有人说这个人工智能已经有了心智;还有人说GPT-3.5的智力已经和九岁的孩子相当了…… 等一等,“心智理论” “同理心”“心智”“智力”,这些词似曾相识,意思似乎又不大一样。GPT-3.5和九岁孩子比起来,到底谁更厉害?为了回答这个问题,我们需要做一个词义辨析,再看看这篇论文究竟说了什么。 01 什么是心智理论? 很多人可能是第一次听说心智理论这个词。不要被字面意思误导,心智理论不是一种理论,而是一种能力。简单来说,就是理解和推断他人心理状态的能力。举个例子,你趁朋友不在,仔细藏起了一件礼物,等他回来发现了礼物时,他会是什么心情呢?一般人会本能的想到,应该会惊讶、惊喜。能想到这一层,是因为你知道,藏起礼物这件事儿对方不知道,而且,你认为对方收到礼物会觉得高兴。这就说明,你具备推测他人心理状态的能力。 看到这里,有人要问了,这不是正常人的正常思维吗,怎么还算一种能力呢?其实,心理学家最初研究这个问题,研究的目标对象还真不是人类。1978年,心理学家Premark和Woodruff发表了一篇著名论文,叫做《黑猩猩是否有心智理论?》。作者指出,人类只能观察同类的行为,不可能看到对方心里是怎么想的,但是却可以推断出对方的意图、知识、信念、思想、怀疑,甚至伪装等等。这是人类的本能。那么,黑猩猩能做到这一点吗?如果可以,说明黑猩猩也和人一样,有推测他人内心的能力。心理学家发现,黑猩猩能意识到他人的想法,确实具备一定的心智理论。 图注:心理学家使用的测试,黑猩猩需要观察实验员的困境,尝试推断如何帮助他。 这篇论文一出现,立刻启发了许多学者。他们要问了,心智理论真的是人类的本能吗?人类又是如何获得心智理论的?于是,心理学家做了一系列的研究,结果发现,人类也不是一出生就具备心智理论的。婴幼儿先是能跟随其他人切换注意的目标,渐渐意识到其他人有自己的想法。再然后,幼儿开始理解和推测别人的心理状态,接下来,这种推断能力会越来越准确,直到达到和成年人一样,能不假思索地理解他人。 心理学家究竟是怎么测试的呢?我们可以看两个经典的实验。第一个叫做错误信念测试。心理学家给小孩展示一组图片,一个小朋友面前放着一个口袋,上面有巧克力标签,但里边装的却是爆米花。这时,心理学家提问了:如果有个小朋友刚刚过来,看到这个袋子,会觉得里边装的是什么呢?成年人会认为,这个小朋友没见见到袋子里边的爆米花,会根据标签认为是巧克力。但心智理论尚未健全的孩子就不一样了,他们可能无法分清自己知道什么、其他人又知道什么,于是推断说这个小朋友认为里边是爆米花。随着孩子年龄增长,心理学家还会加大难度,让孩子来推断,画中的小朋友认为,另一个小朋友怎么想。这就需要孩子能更熟练推断不同人的心理状态。 另一个实验叫做萨丽-安妮测试,心理学家给孩子展示一段录像或者图片,描绘的是萨丽和安妮一起待在房间里。这时,萨丽把一个球放到了篮子里,然后就离开了房间。安妮等她走了以后,把球藏到了盒子里。过了一会儿,萨丽回来了,请问,她会去哪里找球呢?成年人能推断出来,萨丽不知道安妮藏球的事儿,还是会去篮子里找球。但是孩子就不一样了,他们的心智理论还不成熟时,他们可能认为,萨丽会去盒子里寻找。 这两类测试都发现,孩子要到四岁才能正确回答问题,通过测试,而且一开始成绩还很不稳定。要到九岁才能灵活推测任何其他人的心理状态。 图注:萨丽-安妮测试示意图 来自维基百科 其实,咱们每个人都经历过这种“猜不透”、“看不懂”别人的阶段,只不过,随着年纪增长,大部分人都会获得心智理论,加上儿时的记忆逐渐模糊。如果不是心理学家做实验,人们还真不知道孩子的心理是这样的。 02 ChatGPT有没有心? 看了这两个实验,我们再来看这篇引起讨论的论文心里就有数了。大语言模型处理的是自然语言,于是科学家就把刚才的两个测试都编写成故事,输入给GPT-3.5,然后向它提出问题。结果,在错误信念实验中, GPT-3.5能正确回答20个问题中的17个;在萨丽-安妮测试中,GPT-3.5回答20个问题能够全对。为了防止GPT-3.5是靠关键词猜中的,科学家还改换不同的表达方式反复提问,甚至故意加入了一些逻辑混乱的“测谎题”。结果, GPT-3.5也通过了检测,依然能够回答正确的问题,遇到逻辑混乱的问题时也被绕晕了。 图注:基于GPT-3.5的ChatGPT在错误信念中输入的故事和测试成绩 可不要小看这个成绩,之前的人工智能都不能通过心智理论测试。不仅如此,科学家同时检测了近来出现的其他8个人工智能,包括同类模型之前的版本。结果发现,只有GPT-3.5这个版本能达到这个成绩。GPT-3的版本成绩就大幅下降。有几个人工智能一道测试题也答不对。可以说,最新版本的GPT-3.5通过了这个心智理论的测试,而且大幅超越了它之前的版本。而且,它这个正确率逼近了人类九岁孩子的成绩,这才有了网上神乎其神的解读。 图注:不同人工智能正确率比较,GPT-3.5遥遥领先 理解了心智理论的概念,也看了论文的方法,咱们再来说说网上的解读。九岁的“心智理论” “同理心” “心智” “智力”这些说法哪个靠谱? “心智理论”显然是最比较准确的解读,论文中测试的就是心智理论这个能力。 “同理心”则有一点偏差,心理学家认为,心智理论和同理心是两种相近的能力,但同理心更偏重情绪和情感的体验。以ChatGPT为代表的大语言模型并不具备情绪能力,也就不具备通常所说的同理心。 “心智”的偏差就更大了,在心理学领域,心智是一个“大词”,指的是人具备思想、想象力、记忆、动机、感觉等,对于人类的心智究竟是什么,科学家还在争论。心智理论和心智共享了相同的字眼,意思却很不一样。显然,目前的大语言模型还不需要具备心智,但通过心智理论测试却没问题。 最后,“智力”这个解读也很不准确,科学家并没有进行智力测试,智力和心智理论是两个完全不同的概念。...