文章标签:二、少样本训练;ChatGPT;句式格式;稳定性

今天让AI帮助写诗,同时通过这个案例教大家两个非常重要的GPT使用技巧:

1. 信息确认,减少误差 

2. 少样本训练,投喂优质案例,提升回答质量

一、信息确认,减少误差在使用ChatGPT时,我们要注意到它的训练数据是截至2021年9月的,并且中文语料库相对较少。因此,有些概念和问题ChatGPT可能并不了解。如果ChatGPT不了解您的问题,它很可能会胡编乱造,因为它不理解您的需求。举个例子,我让ChatGPT写一首七言绝句,但它没能写出来,显然它并不了解七言绝句是什么。

再举一个例子,微信问一问是一个今年才出现的平台,但GPT显然不知道这个平台的规则是怎样的。微信问一问的回答不能超过500字,并且要简洁凝练,更受欢迎。而ChatGPT生成的答案显然字数偏多。

所以第一步,我们需要对ChatGPT进行信息确认。这是非常重要的,因为它能确保ChatGPT理解我们的需求。首先,确认ChatGPT是否知道李白。这一步其实可以省去,因为ChatGPT不知道李白的话,就不能算是一个合格的AI了。

接下来问ChatGPT确认是否了解七言绝句。如果它对七言绝句的了解程度不够,我们可以向它提供一些相关信息,帮助它理解七言绝句的格式和要求。

确认完这两个信息后,再让ChatGPT生成,就会发现至少比之前只生成一句好多了。

不过生成的格式可能还不太对,这时可以多次调教,直到ChatGPT生成正确的格式内容。

二、少样本训练

即使进行了信息确认,ChatGPT还是有可能会出错,因此我们可以采用少样本训练的方法。这种方法只需要少量的样本就可以让模型学习到某种特定的知识。刚才的问题在于,ChatGPT对于七言绝句的格式输出非常不稳定。所以我们可以提供一些七言绝句的诗句作为训练样本,让ChatGPT学习七言绝句的格式。训练完后,再让ChatGPT生成类似的诗句。这种方法的优点是,我们不需要大量的数据,只需要一些具有代表性的样本,就可以让ChatGPT学习到我们想要的知识。

我测试了4、5遍后,发现ChatGPT的句式格式已经非常稳定了。 

我们可以投喂一些优质的示例给ChatGPT,让它学习。投喂的内容质量越高,ChatGPT生成的内容质量就会越高。通过这样的训练,我们的AI李白诗仙就诞生了。它可以生成类似李白的诗句,让我们感受到古诗的魅力。经过确认,我们可以确保ChatGPT在信息上保持透明,减少信息误差和歧义,以提升回答的质量。通过进行少样本训练,我们可以让ChatGPT迅速学习优秀的示例,从而产生更高质量的内容。然而,这要建立在您提供的内容足够优质的前提之上。希望这个案例能够帮助大家更深入地理解这两个ChatGPT使用技巧!

玩转AI智能,让AI提速增效

防止迷路,一定要关注公众号

点 击 下 方 名 片

立 即 体 验?

二、少样本训练;ChatGPT;句式格式;稳定性

Leave a Reply

Your email address will not be published. Required fields are marked *