文章主题:假新闻, ChatGPT, 人工智能, 语言处理
近期,一则有关某地解除限制的新闻在网络上广泛传播。经核实,这是一则虚假消息,其来源并非事实可靠的信息源,而是一场恶作剧,旨在展示人工智能助手ChatGPT的强大功能。

一段时间,ChatGPT凭借卓越的语言处理能力风靡一时,成为人们争相追捧的人工智能应用现象。然而,一旦深入探究,便会发现ChatGPT并非完美无缺,它的错误和缺陷也显露无疑。在各个领域,无论是天文地理还是科技前沿,ChatGPT的回答都存在问题,甚至出现了大量的误导性回答。例如,当被要求解释高深的物理理论时,ChatGPT所提供的答案在查阅相关资料后发现并无任何参考价值;在推荐知名学者方面,ChatGPT给出的信息也有误,人物履历存在拼凑痕迹;而在涉及历史问题时,ChatGPT的回答更是明显偏差,有时甚至完全不符事实。因此,尽管ChatGPT在某些方面的表现出色,但它存在的错误和不足也使得学术界开始对其产生警惕。
ChatGPT为何被誉为“制假高手”,得从它的技术特性入手。简单来说,ChatGPT是一种聊天机器人,利用生成式预训练转换器(GPT)技术,通过提供庞大的语料库来训练模型,从而构建出复杂的预测模型。这种模型能够在大量用户的不断使用反馈中不断接受训练,逐渐提高其人工智能水平。正因如此,ChatGPT能够像人类一样理解文字,因此被认为是一种比其他AI产品更加“聪明的”工具。然而,由于ChatGPT具有较高的隐匿性,一些事实谬误和价值观偏见更容易在无形中附着其上。这是因为ChatGPT的运作是基于被投喂的语料库,它并不负责生成内容的真实性和准确性。换言之,ChatGPT生成的内容可能存在一定的偏差和不准确性。此外,人工智能的背后是人,训练数据和生成逻辑都可能带有一定的价值观和倾向性,这也导致了ChatGPT在国际政治、新闻评论、道德伦理等议题上的“诡异双标”。OpenAI也承认,这是“有害指令或带有偏见的回答”。
作为一种基于深度学习技术的信息技术,人工智能本身是中立的。然而,它的开发者和使用者却往往会带着自己的价值观念。许多人担心,随着这些技术得到广泛应用,虚假信息可能会大量涌现,使得信息鉴别变得日益困难。此外,由于政治斗争和其他多种因素,夹杂着私货的价值偏见可能会随着信息的线性生产而迅速传播,从而加剧分歧和分裂。针对这个问题,许多国家已经开始采取行动。作为较早进行人工智能立法探索的国家之一,我国应该提前做好准备,制定相应的预案。在伦理准则、隐私保护、价值观引导以及真实性控制等方面,我们都应该积极探讨并建立相关规定,以防止技术应用过程中出现偏差。
在丹·布朗的科幻巨著《本源》中,他大胆设想了这样一个场景:随着恐龙的灭绝,人类文明有可能会在未来的某一天突然消失。的话,一种新的生物形态将会迅速占领地球,那就是“人机结合体”。这一概念的提出,让人不禁对未来的科技发展感到震撼,仿佛预见到了一个不可阻挡的趋势。然而,尽管我们不能否认科技的力量,但在日新月异的变革中,我们也必须时刻保持警惕,努力避免技术带来的负面影响。
来源:北京日报 作者 雨馨
流程编辑:U022

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

