文章主题:关键词:ChatGPT,人工智能,语言处理,乌龙作品
近期,有关某地取消限行的消息在网络上广泛传播。经过深入调查,我发现这是一则完全失实的虚假新闻,其背后不过是一些人为了炫耀ChatGPT功能的强大而制造出的混乱。
新华社 图文无关一段时间以来,ChatGPT以其卓越的语言处理算法能力成为了备受瞩目的现象级人工智能应用。它在各个领域的知识回答表现出了惊人的准确性和流畅性,无论是天文地理还是科技前沿,它都能提供详尽的解答。然而,当我们深入探究其背后,便会发现它的不足之处也显露无疑。这些硬伤有些令人啼笑皆非,例如,当有人让它解释高深的物理理论时,它会列出看似详尽的论文资料,但仔细一看,却发现这些资料的出处都无法核实;又如,当有人询问知名的学者时,它会给出看起来非常专业的推荐信息,但实际上,这些人物的履历却存在诸多疑点;再如,当有人询问历史问题时,它的回答则会出现明显的错误,让人哭笑不得。这种 truth 和 false 的混合,使得一些专业人士在接触它的回答时,常常感到难以分辨,甚至会导致一些内行人被误导。因此,尽管 ChatGPT 在某些方面的表现出色,但在学术领域,人们对它的警惕性也在逐渐提高。
ChatGPT为何被誉为“制假高手”,这个问题需要深入探讨其技术特性。ChatGPT中的“Chat”意味着聊天,而“GPT”则是生成式预训练转换器的缩写。它的技术原理可以概括为:首先,为其提供大量的语料库,接着让模型在这些语料上进行亿级别的参数训练,以构建一个复杂的预测模型。随着大量用户的使用反馈,该模型会不断进行优化,提升其人工智能水平。这种类似于人类信息处理的方式,使得ChatGPT能够像人类一样理解文字,因此在与传统AI产品的比较中更具优势。然而,正是由于这种隐匿性更强,“假”的事实、价值观偏见更容易附着在其上。因为ChatGPT的输出结果是基于其被输入的语料库,对于这些语料库中调取、整合后生成的内容的真实性和准确性,ChatGPT并无责任感。换言之,海量真实事物被打破后,它们的局部被随意拼接成一个新整体,这个新整体的真实性、准确性并不能保证。此外,人工智能的运行背后是人类的活动,素材、语料的训练,新内容生成的逻辑、规则设定等都会带入价值观和倾向性。这也解释了为什么在国际政治、新闻评论、道德伦理等许多问题上,我们会看到ChatGPT表现出诡异的双标,甚至OpenAI也承认这是“有害指令或带有偏见的回答”。
作为一项基于深度学习技术的信息技术,人工智能本身是中立的。然而,它的开发者和使用者却携带着各种价值观念。许多人担心,随着这些技术的广泛应用,虚假信息可能会大量涌现,使信息鉴别变得日益困难。此外,由于政治角力等多种原因,夹杂着私货的价值偏见可能会随着信息的线性生产而迅速传播,从而加剧分歧和分裂。针对这种情况,许多国家已经开始采取措施应对。作为较早进行人工智能立法探索的国家之一,我国应该提前做好准备,制定相应的预案。在伦理准则、隐私保护、价值观引导以及真实性控制等方面,我们都应该积极探讨并建立相关规定,以防止技术应用过程中出现偏差。
在丹·布朗的科幻巨著《本源》中,他大胆设想了这样一个场景:随着恐龙的灭绝,人类文明有可能会在未来的某一天再次消失。的话,一种新的生物形态将会迅速崛起,那就是“人机结合体”。随着人工智能助手ChatGPT的问世,我们似乎已经看到了这个未来的曙光。尽管我们无法否认科技的力量,但在日新月异的变革中,我们必须保持高度的警惕性,以最大程度地规避技术带来的负面影响。
来源:北京日报 作者 雨馨
流程编辑:U022
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!