文章主题:假新闻, ChatGPT, 人工智能, 语言处理
近期,有关某地取消限行的消息在网络上广泛传播。经过深入调查,我发现这是一则完全失实的虚假新闻,其背后不过是一些人为了炫耀ChatGPT功能的强大而制造出的混乱。

一段时间,ChatGPT凭借卓越的语言处理能力风靡一时,成为人们争相追捧的人工智能应用现象。然而,一旦深入探究,便会发现ChatGPT并非完美无缺,它的错误和缺陷也显露无疑。在各个领域,从天文地理到科技前沿,ChatGPT的回答往往存在问题。例如,当被要求解释高深的物理理论时,它所提供的论文来源却无法核实;在推荐知名学者方面,它所涉及的人物履历也存在诸多疑点;而在解答历史问题时,它的回答更是让人啼笑皆非。这种 truth 和 false 的混合,使得即使是内行人也会被误导,因此,学术界开始对ChatGPT产生警惕。
ChatGPT为何被誉为“制假高手”,得从它的技术特性入手。作为一种聊天机器人,ChatGPT的本质是一个生成式预训练转换器,其工作原理可以类比于人类的“脑回路”。它首先会被提供一个庞大的语料库,然后通过上亿参数对这些内容进行打散、标记和学习,最终构建出一个复杂的预测模型。随着大量用户的不断使用反馈,该模型会逐渐提高其人工智能水平。由于ChatGPT能够像人类一样理解文字,因此相对于其他AI产品,它显得更为“聪明”。然而,这种智能背后隐藏的是一种隐匿性更强的“假”,使得一些事实谬误和价值观偏见更容易在无形中附着其上。因为ChatGPT的工作原理是将语料库中的内容打散并重新组合,所以其生成的内容的真实性和准确性并不由ChatGPT本身负责。换言之,即使ChatGPT再怎么神奇,其最终的 output 也仅限于被输入的语料库。此外,人工智能的训练过程中所使用的素材和语料,以及新内容生成的逻辑和规则设定等,都可能带有价值观和倾向性,这也就导致了ChatGPT在国际政治、新闻评论、道德伦理等议题上的“双标”现象。OpenAI也承认,这是“有害指令或带有偏见的回答”。
作为一项基于深度学习技术的信息技术,人工智能本身是中立的。然而,它的开发者和使用者却往往会带有自己的价值观念。许多人担心,随着这些技术的广泛应用,虚假信息可能会大量涌现,使得信息鉴别变得日益困难。此外,由于政治斗争和其他多种因素的影响,夹杂着私货的价值偏见可能会随着信息的线性生产而迅速传播,从而进一步加剧分歧和分裂。针对这种情况,许多国家已经开始采取措施应对。作为较早进行人工智能立法探索的国家之一,我国应该提前做好准备,制定相应的预案。在伦理准则、隐私保护、价值观引导以及真实性控制等方面,我们都应该积极探讨并建立相关的规范,以防止技术应用过程中出现偏差。
在丹·布朗的科幻巨著《本源》中,他大胆设想了这样一个场景:随着恐龙的灭绝,人类文明有可能会在未来的某一天再次消失。的话,一种新的生物形态将迅速崛起,那就是“人机结合体”。随着人工智能助手ChatGPT的问世,我们似乎已经看到了这个未来的曙光。尽管我们无法否认科技的力量,但在日新月异的变革中,我们必须保持高度的警惕性,以最大程度地规避技术带来的负面影响。
来源:北京日报 作者 雨馨
流程编辑:U022

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

