文章主题:人工智能, 聊天机器人, ChatGPT, GPT-3.5
是否曾想过与一款智能AI展开对话,让它解答您的问题、分享幽默、讲述故事,甚至协助编写代码?如果答案是肯定的,那么您或许会对ChatGPT产生兴趣。这款由OpenAI研发的聊天机器人,能与用户进行互动式对话。
什么是 ChatGPT?
ChatGPT 是一款基于 GPT-3.5 大规模语言模型构建的智能对话机器人。该系统能够通过理解用户输入的问题并生成相应的回答来与用户进行交互。其中,GPT-3.5 是一个先进的语言模型,它能够预测文本序列中的下一个单词或单词组,从而使 ChatGPT 在理解和生成自然语言方面具有出色的表现。举例来说,当用户输入“天空是”时,ChatGPT 可以利用其强大的语言模型预测出与之相关的词汇,如“蓝色”、“多云”或“落下”。
GPT-3.5是全球最具实力与先进的语言模型之一,其拥有1750亿个参数,这些参数对模型的文本处理方式起着决定性作用。该模型是在互联网的海量文本数据(包括书籍、文章、博客、社交媒体帖子等)上经过深度训练而得出的。
ChatGPT 是一种经过人工调整的特殊版本,其基础模型为 GPT-3.5。这种调整过程主要通过加入额外数据和反馈,对现有模型的参数进行优化,从而提升其在对话任务中的性能。具体而言,ChatGPT 的训练采用了监督学习和强化学习技术,不断从用户输入和反馈中学习,不断改进自身表现。
监督学习是一种让模型通过接受正确的输入与输出示例进行学习和优化的方法。在ChatGPT的应用中,这一过程涉及到两类角色:一方面是负责编写对话的人类训练者,他们在向模型提供有效输入的同时,也承担着人工智能助手的角色;另一方面则是利用模型自身所提供的建议,以助力训练者更准确地撰写出真实且富有成效的回应。
强化学习是一种根据模型表现对其进行奖励或惩罚的方法。在此过程中,ChatGPT会对提供不同响应的模型生成者的排名进行赋值。通过这种方式,我们可以利用排名来创建一个奖励模型,以便引导模型随着时间推移不断优化其响应。
ChatGPT 如何使用Token?
在本文中,我们将探讨Token在语言模型中的重要角色。Token是语言模型处理和生成文本的基本单位,其范围广泛,包括单词、标点符号、空格、数字、表情符号和各种特殊符号。这些元素共同构成了语言模型的输入和输出基础,使得语言模型能够理解和生成各种形式的文本。
ChatGPT 以几种方式使用 Token 来理解和生成语言:
ChatGPT是一种基于预训练语言模型的对话系统,其工作原理是通过预先训练生成一个Token列表以及一些不同Token之间的关系参数。当用户输入一段话时,它会利用分词算法将每个单词拆分成对应的Token。具体来说,“Hello world!”会被拆分为三个Token:“Hello”、“world”和“!”,而“I’m happy [gf]1f60a[/gf]”会被拆分为四个Token:“I”、“”、“m”、“happy”和“[gf]1f60a[/gf]”。这些Token是ChatGPT识别和理解语言的基本单元,它们之间的相互作用关系也是ChatGPT实现自然语言处理的重要方式之一。
它为每个 Token 分配一个嵌入向量(由数字列表组成),表示其含义和上下文。它将每个 Token 的嵌入向量馈送到神经网络层(数学函数)中,从左到右顺序处理它们。它为每个 Token 输出一个嵌入向量,代表它应该接下来生成的内容。它使用解码算法将每个输出嵌入向量转换为一个 Token 。例如,输出嵌入向量[0.2,-0.1,…]可以解码为“。”(一个句号)。输出嵌入向量[0.9,-0.4,…]可以解码为“?”(一个问号)。之后它将这些输出 Token 连接成一组回应,并反向解码成人类的语言。
简而言之,ChatGPT通过一个复杂的列表和大量的参数来“预测”每个输入的Token组合之后应该“出现”哪些新的Token,同时还能够通过两外的参数去识别上下文关系,语句的情感参数等调整这个“预测”。
输入:你好吗?输出:我很好,谢谢。你呢?
输入会被分成四个 Token :[“你好”,“吗”,“?”]。每个 Token 都会根据其含义和上下文被分配一个嵌入向量。
第一个 Token 的嵌入向量会被输入神经网络层并产生一个输出嵌入向量,该向量预测了在“你好”之后应该出现什么。该输出嵌入向量会被解码为“I”(一个代词)。
第二个 Token 的嵌入向量会与上一个输出嵌入向量一起被输入神经网络层,并产生另一个输出嵌入向量,该向量预测了在“你好我”之后应该出现什么。该输出嵌入向量会被解码为“”(一个撇号)。
这个过程会一直持续到所有输入 Token 都被处理并且所有输出 Token 都被生成。
最终响应将通过连接所有输出 Token 而形成:[“我”,“”,“m”,“好”,“,”,“谢谢”,“。”,“和”,“你”,“?”]->我很好,谢谢。你呢?
除此之外还有专门的未知[“unk”]Token用来代表不在Token列表的内容(如用户输入自造词或者拼写错误较为严重的单词),ChatGPT具有通过上下文为这些未知Token赋予意义的能力。同时还有停止[“stop”]Token用来表示回应可以完成了。
虽然ChatGPT理论上只是在“预测”或者“猜测”一段文本之后“应当”接着的另一段文本是什么,但是如果这种“猜测”的实际效果达到了我们无法分辨的水平,那又何尝不是某种“理解”呢?(虽然对于具体标准由不同意见,但是ChatGPT已经通过了一些机构进行的图灵测试)
ChatGPT的几个版本都有何不同?要如何使用?
首先要明确一点的是,只要你的工作是需要用到电脑和计算机的,那么你的工作就几乎一定是可以被ChatGPT协助,甚至代替的,所以请不要大意的尽情去尝试让它协助你工作,提高工作效率(增加摸鱼时间)。简而言之的使用方法就是把他当成一个你的专业的刚大学毕业的实习生来对待,只管吩咐任务就行,而且要记住他是能记住上下文,能够根据你的新要求调整/修改之前的回复的。
同时谨记如果你有一定的英文对话能力,请务必尝试用英文向他发出指令,让他用英文输出回复,哪怕之后再让他用中文翻译一遍,ChatGPT用英文回复的质量明显高于中文,哪怕你英语很蹩脚也没关系。(当然只用中文也不是不行,只是说有能力的尽量尝试)
ChatGPT原版:
这个版本是OpenAI的免费公开测试版,免费注册账号,但是某些国家和地区无法使用(直接屏蔽IP),需要验证手机号。
优点:免费,界面简单,打开即用。每次对话的总长度限制是4096 Token(大约3000个单词/4000个汉字,是GPT 3.5本身的上限)。相比Bing版本阉割较少,同时可以进行长对话,长度只受总Token的限制
缺点:有每小时的请求次数限制,在繁忙时间免费用户会很卡或者会被限制,该版本是不联网的,所以相比Bing版本,缺少了联网以后他自己上网搜索信息的能力。
Bing Chat版:
这个版本是微软把ChatGPT和他们自家的Bing 搜索引擎结合以后的版本,想要使用的话首先要去官网加入waitilist,完成一些任务,然后下载好Edge然后等就行了,目前来看很快就可以获得使用资格。我不太确定对于地区限制具体是怎么样的,有了解的麻烦帮我补充
优点:免费,能够联网自动搜索各种信息,比如提编程需求的时候懂得自己去搜代码,这一点大大弥补了原版缺少很多冷门内容甚至是中文内容的缺点。回复一些热点事件或者有固定答案的信息准确率更高。因为可以联网搜索信息,有时候写文章的质量特别是详细程度比原版好(因为可以直接去到处抄)。
缺点:对话次数有限制,高峰时是6次回复,普通时段是8次,超过该次数以后就必须重启对话。同时该版本的内置审核规则比原版严的多,很多话题它都不愿意说,有的时候甚至在回复完全无害的话题过程中突然因为检测到敏感词而中断。另一方面我个人感觉它会更倾向于把搜索的内容整理给你而非自己创作内容,这就导致某些时候他的回复长度甚至不如原版。
Playground版本:
这个是OpenAI正式推出API之后的官方演示版本,本质上和上面的原版相同,同样不能联网,但是有很多不同版本的GPT模型可以选择,各个模型是根据特定场景微调的,主要差别针对场景优化,同时收费和性能不同。使用该版本是要按照Token收费的,但是实际上很便宜,1000个Token只要1-4美分,如果你想要长期使用的话,用这个按量付费比20刀包月核算的多。
优点:“据说”内部审查规则比原版要弱,但是我没仔细比较过。有一些参数可以自行调整比如单词回复使用的Token上限,可以自定调用的具体模型,更大的自由度,更快的相应速度。收费极其低廉。
缺点:跟原版相比差别并不大,特别是仍然不能联网。需要开通付费账号(意味着要信用卡等)。
想了解更多精彩内容,快来关注懒人看文章
人工智能, 聊天机器人, ChatGPT, GPT-3.5
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!