文章主题:ChatGPT, 人工智能, 自然语言处理, 聊天机器人
近期,网络上一款名为ChatGPT的聊天机器人程序引发了大量关注。该程序由美国的“开放人工智能研究中心”(OpenAI)开发,是一个基于人工智能技术的自然语言处理工具。ChatGPT的工作原理是通过学习和理解人类语言,与用户进行对话和互动,模拟真实人类的交流方式。此外,它还能胜任外语翻译、撰写文案等任务,其功能之强大让人印象深刻。尽管ChatGPT的概念并不特别创新,但由于其在技术上的突破和质量上的提升,以及比同类产品更好的表现,使得它在短时间内获得了广泛的关注。
在网络上,ChatGPT的“小品”流传广泛,包括代写学生的作业、各种领域的论文,以及政治家的演讲稿等。随着用户数量的迅速增长,ChatGPT的模仿者也纷纷涌现,试图借机谋取利益。然而,如果我们深入观察这些“作品”,便会发现人们关注的焦点并非其“高明”与“突破”,而在于其“不离谱”。与其他同类产品相比,ChatGPT更接近人类的特征。
一、围绕ChatGPT的关注事项排序与具体行动排序
政治工作宜保持理性、紧抓本质。站在政治安全的视角看,以ChatGPT为代表的人工智能技术和平台本身不是威胁,潜在威胁来自于实际控制它的人将其用于何处。当今中国对技术和创新抱有极大热情,没有谁能让我们重归封闭和落后;我们同时也对阴暗与侵犯保持极高警觉,不会再被愚弄和奴役。
一件事发生后,针对这件事要么不做动作,只要做动作,需要做的事有很多,应对宜有板有眼。围绕ChatGPT,对于一个有战斗力的政府来说,关注事项排序宜为:一是我们有没有自己的ChatGPT、开发到了什么程度;二是这个东西有什么用、可以怎样用;三是如果敌对势力借它伤害我们,会造成什么威胁。具体行动的排序宜为:一是理清它对我政治安全可能造成的威胁;二是研究我们使用此类工具对敌威慑和打击的可能方式;三是围绕自身需求,掌握中国有关技术和产品的开发情况,合理引导和促进国内有关工具的开发。
二、敌对势力利用ChatGPT可能给我带来三大风险
第一,利用“信任矛盾”制造“认知地震”。
人类对机器存在“信任矛盾”,以下两个例子可阐释。
例一,当你在计算机中输入“1+1=”,看到计算机显示“2”时,与你听到别人说“1+1=2”的感觉不同,特别当你把说话人和某种身份联系上时,例如家人、同事、领导,或者数学家、哲学家、政治家,不同的人说出的话,听话人反应也不同。面对人和机器都能回答的数学问题,我们往往倾向认为机器给出的答案更准确。
例二,当你在人工智能聊天对话框中输入“幸福是什么”时,机器的答案可能不如亲人、朋友、同事的回答对你影响大,即便二者答案相同,你可能也只会把机器讲的当“参考”,却更有可能把人讲的当“答案”。面对感性问题时,即便机器也可以给出结论,我们可能更相信人的回答。
创新与变革常常伴随着潜在的风险与挑战。随着以ChatGPT为代表的人工智能技术的日益成熟,它们对人类思维与情感的理解、模拟程度正在不断提高,所能够完成的工作范围也在不断扩大。认知与行为之间存在着相互影响的关系。随着人们越来越依赖人工智能工具,并在各个领域借助这些技术获得令人满意的“答案”,人们对机器提供的回答的认知开始变得模糊。过去,大多数人并不会认真地向机器寻求“中国适合哪种制度”的答案,或者仅仅会将机器给出的回答视为“参考”。然而,当人们向机器提出更加复杂的问题,并将机器的回答视为“答案”时,可能会出现敌对势力利用人工智能技术对我认知领域发起攻击的情况。
第二,利用“个性化服务”制造病毒化的虚拟意见领袖。
在同一家电视台、同一份报纸以及同一门户网站上的信息呈现是一致的,然而,针对同一个宣传观点,公众可能会产生支持、反对或疑问等各种不同的反应。在这种情况下,舆论宣传工作的核心挑战在于如何在这些不同的反应之间做出权衡。而ChatGPT作为一种先进的工具,能够依靠其自身的平台,更加精准地捕捉到舆论关注的焦点。同时,它具备先进的学习和模仿能力,允许其围绕特定主题,针对不同群体,采用各种不同的语言和表达方式与人们进行互动。因此,可以说ChatGPT的出现,是人类历史上首次在大众传播环境中实现针对同一主题使用不同策略的“一对一”宣传。
以ChatGPT为例,我们可以看到其强大的用户分群和信息传递能力。首先,通过分析用户的使用记录、搜索偏好和语言习惯,ChatGPT能够将用户划分为不同的类别,如“激进”或“理性”。接着,针对这些不同类型的用户,ChatGPT会采用相应的沟通策略和信息内容,实现同一主题下的宣传和渗透。此外,ChatGPT不仅能够从人类用户中学习,还能在人类的指导下自我提升。具体来说,面对海量的用户群体,ChatGPT能够挑选出共性较高、获得用户响应率较好的逻辑和信息片段,并主动将其推广到更广大的用户群体中。这一举措不仅有助于提高ChatGPT的战斗力和用户黏性,同时也为它未来的发展提供了更为广阔的空间。
在此基础上,拥有社会影响力和组织力的意见领袖,借助ChatGPT,可以摆脱真人的束缚,以符号化形象出现。这种形象可能是某部影视剧角色的再创作,或者是一种富有特定意义的标志。在其初始阶段,可能会有国内外敌对势力操盘,旨在塑造一种“网络习惯”,吸引意见群体以该领袖的名义在网络上发声,进而如同病毒般在各个网络平台传播开来。与真实人物或实体团队相比,暴力机器难以与没有历史背景和国籍民族,没有生活污点和弱点缺陷的虚拟人物或符号展开斗争。当一种潮流在网络中形成,现实生活中的去中心化社会运动便具备了发展的条件和土壤。
电影《V字仇杀队》展示了一个独特的平行世界观:纳粹成功统治全球,英国成为殖民地,一位神秘的蒙面人“V”与政府对抗,他拯救了一名少女,并共同反抗邪恶势力。这个故事中,“盖伊·福克斯面具”与激励人心的口号“你是选择一辈子懦弱,还是瞬间英雄”在全球网络上引起了热潮。虽然最初创始人可能没有详细的计划和策略,但他们已经尝试建立虚拟意见领袖。如果将ChatGPT应用于此类目的,无疑会加速虚拟意见领袖的诞生和成长。
第三,利用“快速复制”制造规模效应。
作为一名杰出的科学家,他不仅能够教授知识与思考方法,更能培育出更多的科学家和相关从业者。然而,这一过程并非一蹴而就,而是需要时间的沉淀以及成材率的客观存在。在各个行业中,尤其是顶尖领域,由于参与者稀少,有时甚至只有一个人,如伟大的科学家牛顿、爱因斯坦、麦克斯韦、拉瓦锡等,他们虽然倾尽全力,但能教授的学生也止步于有限的人数。同样,在政治和宣传领域,优秀的人才也是稀缺的。然而,人工智能的出现改变了这一局面。它能够在大量的数据中筛选出最优秀的个体并进行复制,这种复制的速度之快超乎想象,甚至可以在瞬间完成。短时间内,甚至可以制造出超过人类人口总数的复制品。如果这样的工具落入敌对势力的手中,那么我国网民在网络空间将面临的是数量远超自身的“理论家”,这种情况下带来的风险和挑战将是无法估量的。
例如,近日有国内智库刊文分析ChatGPT作为出类拔萃的人工智能工具将如何在未来军事领域发挥颠覆性作用、增强军事情报和决策,甚至为下一代作战规划具体方案云云。此文被不少社交媒体用户转发,笔者读后的感觉是“乏善可陈”,但没觉得有何“不妥”。关键在于,笔者后来发现这篇文章原文出自境外的一个技术类博客,博主在文末承认“这篇博文的40%就是ChatGPT写的”。国内的智库是出于“疏忽”还是出于“博眼球”而刊发这篇文章,笔者难以知晓,但将这个新鲜的小故事与上述威胁结合起来,更证明新的挑战已经来到眼前。
三、应对建议
针对前文所述的潜在威胁,中国宜以战略高度重视、引导、促进人工智能领域的研发和应用。我们不一定会把其作为武器先发制人,但就像原子弹和氢弹,手里没剑和有剑不用,不是一回事。具体建议如下:
一是针对敌对势力可能利用“信任矛盾”制造认知地震的处置建议。不掌握在中国手上的“人工智能”产品、工具,要始终把准“人工”二字。打破“信任模糊”的核心在于打破“认知模糊”,中国人当然可以使用国外的人工智能产品和工具,但我在有关立法、应用、宣传领域,强调“人工”的概念要始终盖过“智能”的概念,要让群众心里绷紧一根弦——人工智能工具也许“像”人,但不是人,而且它背后的确有人在控制它。
二是针对敌对势力可能利用“个性化服务”制造病毒化的虚拟意见领袖的处置建议。有关“病毒化”的特质,最有效的应对举措是阻断传播链。健康的ChatGPT及其同类产品可以进入中国,但有关部门要保持随时对其“可切断”的能力:在技术上留有“关停按钮”仅是其一,更重要的是避免大群体用户产生严重依赖,例如其业务和功能不可野蛮发育,如果其想在中国开通即时通讯、线上支付、水电费缴纳一类看似“便民”的功能,如果其想成为中国各大高校和科研院所的某种“签约文库”和“资源平台”,我们就该慎重考虑它的目的,以及实现的可能和方式——让中国的大群体形成依赖,是“为非作歹”和施加政治压力的前置条件。
美国媒体会说我们是“保护主义”,保护“微信”和“支付宝”,但实际中国的格局大的多,我们保护的是涉及国家安全和社会稳定的“防御能力”,是有关政治的“切断能力”。与此同时,“个性和自由”不是无法无天,而有清晰边界。中美两国都在依据本国实情管理和规范本国的社交媒体和网络平台,ChatGPT一类的人工智能平台,当然也不能是法外之地,哪些可以聊、什么不能做,宜有具体的管理导向和配套举措。
三是针对敌对势力可能利用“快速复制”制造规模效应的处置建议。中短期看,上文所述的“保持切断能力”可以解决这个问题,而以长线思维,中国宜围绕“人类是否可以允许人工智能自我修复或复制”的概念做文章,对敌实现“降维打击”。是否可以允许层级较高的人工智能修理坏掉的同类、制造新的同类?这其实是一个非常值得重视的课题。阿西莫夫在《我,机器人》的引言中提出了《机器人学的三大法则》,成为当今广为传播和被接纳的概念:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;
机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。这其中存在一个“不是问题的问题”:当机器人不认为自我“繁殖”或说复制这件事本身对人类是一种危害,且人类没有下达不可如此的命令,那就没有什么可以阻止机器人去这样做,如果机器人把自我复制当作保护自己生存的方式,它们就会主动这样做。
“不是问题”是因为,这在理论角度可以解决,因为人类可以随时下达停止复制的命令。“是问题”在于,在实践领域不是如此:所有人类大集体并不只由一个领导集体来领导,当某个领导集体下达停止复制的命令时,一定会有领导集体允许自己的机器人进行复制,就像中国坚持不首先使用核武器,但有国家一直或明或暗的坚持“先发制人”一样。在此方面中国宜坚持“两条腿”走路,首先自己要研究和掌握人工智能在软、硬件领域自我复制的这种技术,并在可控形势下应用这种技术;
同时通过制定相关法律及规定,明确要求外国的人工智能产品进入中国,必须剥离自我复制的功能。现在距离高层级的人工智能在软、硬件领域自我复制还有时间,中国还宜抓住真威胁产生之前的时间窗口,在国际舆论场中引导民众意识到并重视“允许机器自我复制”这件事的严肃性和复杂性。自己下大力气突破有关技术和应用的同时,对国外在此方面的研究和突破设置门槛。
本文成稿之时,笔者看到手机弹出新闻说“百度、阿里、字节、腾讯等巨头齐聚,中国版ChatGPT争夺战打响”。国外ChatGPT从玩具进化到工具的过程中,我国已在奋起赶超。打起精神、战胜挑战、只争朝夕!走到今天,中国早已不是“你有狼牙棒、我有天灵盖”,我们自己的同类工具,可以期待、值得期待。
注:本文作者为“秦安战略智库”核心成员白中石,为本平台原创作品,新的一年,祝愿大家携起手来、战胜疫情、遏制霸权,一起走向更加美好的未来。
ChatGPT, 人工智能, 自然语言处理, 聊天机器人
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!