文章主题:假新闻, ChatGPT, 人工智能, 语言处理
近期,一则有关某地取消限行的消息在网络上广泛传播。经核实,这是一则虚假新闻,其来源并非事实依据,而是一场由某些人利用ChatGPT技术展示其强大功能的恶作剧。

一段时间,ChatGPT凭借卓越的语言处理能力风靡一时,成为人们争相追捧的人工智能应用现象。然而,一旦深入探究,ChatGPT的问题也隨之暴露出来。无论是天文地理还是科技前沿,它的回答往往存在诸多硬伤,甚至出现了大量的“胡说八道”。例如,当被要求解释高深的物理理论时,它所提供的答案在查阅相关资料后发现并无任何参考价值;在推荐知名学者方面,它的选择也常常出现错误,人物履历的准确性令人质疑;而在涉及历史问题时,它的回答更是让人啼笑皆非。因此,尽管ChatGPT在某些方面的表现出色,但其存在的问题也不容忽视,甚至有时会将一些专业人士误导,使得学术界也开始对其保持警惕的态度。
ChatGPT为何被誉为“制假高手”,这个问题需要深入探讨其技术特性。ChatGPT中的“Chat”意味着聊天,而“GPT”则是生成式预训练转换器的缩写,它的技术原理十分独特。首先,为它提供庞大的语料库,然后让模型通过上亿参数对这些内容进行打散、标记和学习,最终构建出一个复杂的预测模型。随着大量用户持续不断地使用和反馈,该模型得以不断优化和提升人工智能水平。这种类似于人类信息处理方式的“脑回路”,使得ChatGPT在与传统AI产品相比时更具智能化表现。然而,正是由于这种较高的隐匿性,一些错误的信息和价值观偏见可能会在ChatGPT的输出中不自觉地体现出来。因为ChatGPT的输出结果是基于其被输入的语料库,对于这些语料库中信息的真实性和准确性,ChatGPT并不承担责任。换言之,如果将大量的真实事物打碎并混合在一起,那么这些混合后的局部可能无法准确反映原本的真实情况。同样,在人工智能的生成过程中,素材和语料的训练以及新内容生成的逻辑和规则设定等,都会在一定程度上受到价值观和倾向性的影响。这也就解释了为什么在国际政治、新闻评论、道德伦理等多个领域,我们时常能看到ChatGPT给出的诡异双标答案,甚至OpenAI也承认这是“有害指令或带有偏见的回答”。
作为一项基于深度学习技术的信息技术,人工智能本身是中立的。然而,它的开发者和使用者却往往会带有自己的价值观念。许多人担心,随着这些技术的广泛应用,虚假信息可能会大量涌现,使得信息鉴别变得日益困难。此外,由于政治斗争和其他多种因素的影响,夹杂着私货的价值偏见可能会随着信息的线性生产而迅速传播,从而进一步加剧分歧和分裂。针对这种情况,许多国家已经开始采取措施应对。作为最早进行人工智能立法探索的国家之一,我国应该提前做好准备,制定相应的预案。在伦理准则、隐私保护、价值观引导以及真实性控制等方面,我们都应该积极探讨并建立相关的规范,以防止技术应用过程中出现偏差。
在丹·布朗的科幻巨著《本源》中,他大胆设想了这样一个场景:随着恐龙的灭绝,人类文明有可能会在未来的某一天再次消失。的话,一种新的生物形态将迅速崛起,那就是“人机结合体”。随着人工智能助手ChatGPT的问世,人们开始对未来充满了期待和惊叹,“未来已经到来”的口号声此起彼伏。然而,在科技飞速发展的当下,我们必须保持高度警惕,防止技术带来的负面影响最大化。我们不能否认科技的力量,但在变化莫测的瞬间,我们需要时刻提醒自己,确保科技应用不会产生负面的副作用。
来源:北京日报 作者 雨馨
流程编辑:U022

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

