作者|符方怡
编辑|王柯予
排版|余莹莹
责编|芥末
2022年11月30日,美国OpenAI公司发布人工智能聊天机器人ChatGPT,引发社会各界广泛关注。其上线第一周即拥有100万用户,同时一举超越TikTok创下的记录,两个月内,ChatGPT吸引活跃用户破亿,成为了史上用户破亿速度最快的消费应用。世界各大科技公司,比如谷歌、苹果、百度、阿里巴巴等,都高度关注这一技术革新,迅速投入成本,加速ChatGPT类型人工智能相关技术的研发,准备抢占这一机遇风口。
图源网络
ChatGPT是什么?ChatGPT,英文全称是Chat Generative Pre-trained Transformer,是一种基于Transformer架构的语言生成模型。在OpenAI的官网上对于它的具体介绍,专业而又枯燥,而ChatGPT的“自我介绍”,则亲民许多——“ChatGPT是一个人工智能技术,用于生成文字,它通过学习大量语料来模拟人类语言,并可以回答问题、生成文字、完成任务等。简单来说,就是ChatGPT是一个可以根据用户提问,通过自然语言进行回答的聊天机器人。”
如果仅是了解到这里,ChatGPT似乎与先前的其他人工智能没什么不同,能回答人类问题的机器人很早之前就活在了我们的手机固定程序当中,例如IPhone的“Siri”,小米的“小爱同学”。ChatGPT之所以能掀起这样一股技术热潮,是因为相比之前的模型,ChatGPT采用了全新的训练方式——RLHF(Reinforcement Learning from Human Feedback),即从人类反馈中强化学习。这一训练方式就使得ChatGPT的回答更贴合人类的对话习惯,同时还能使得它的回答不断精进。例如下图中的这一段问答:
图源知乎ChatGPT不仅可以与人进行日常的对话,同时还具有信息咨询、撰写文章、策划方案、编写程序等功能,基于其丰富的功能,ChatGPT一经发布便迅速融入到人们的日常学习与工作当中。许多短视频创作者利用它来生成脚本,程序员们能在它的帮助下更快地完成软件的设计,而许多公司更是利用它来进行公司发展现状的分析以及未来发展战略的规划。经调查显示,美国89%的大学生都在使用ChatGPT完成作业,只需要输入几个关键词,提出字数、文体、主题等要求,ChatGPT就能快速生成一篇文章。不仅如此,假如你对输出的文章不满意,还能通过添加限制,更改需求的方式,让ChatGPT一遍又一遍地进行修改,直到你满意为止。同时也有老师将其作用到课堂之上,辅助教学,实现了很多富有趣味的课堂教学创新。然而,纽约的教育系统却全面封杀了ChatGPT,不允许学生在完成学业论文时使用ChatGPT生成的文段,许多知名学术期刊也将它列入黑名单,例如《科学》就明确禁止将ChatGPT列为合著者,同时不允许在论文中使用大型语言模型生成的文本。可见,仅是在教育领域,先进的ChatGPT就制造了许多矛盾,有趣的是,ChatGPT自己对于学生利用它来完成作业或者论文也持反对的态度。图源网络
ChatGPT的诞生,不仅掀起了一股科技的热潮,也许还代表着新的技术革命,但与此同时,ChatGPT也重新挖掘出人们埋在心底的忧虑。
我们在忧虑什么?有学者具体分析了ChatGPT在教育中的应用潜能,它可以提升教师教学成果的完成度与创意感,增强数字导师的角色感与互动性;可以同时提高自适应学习系统的易用性与精准度、促进教学策略与方式的智慧化与创造性……但随着其被滥用,知识传输不准确、学业诚信遭质疑、师生过度依赖等风险也不断出现。可见,仅在教育领域,ChatGPT就展现出了其针锋相对的两面。其实,ChatGPT的两面性是必然存在的,在其诞生之初就应该被预见。科技是一柄“双刃剑”,这一论调在人类开始探索科学技术伊始就存在,可以说一直伴随着人类探索的脚步,直至今日,而ChatGPT作为最前沿的科技成果,开拓科学的边界的同时,难免存在弊端,带来风险。首先,ChatGPT的问世自然又引发了一波“人类终将被人工智能毁灭”的猜想高潮。虽然以ChatGPT目前的智能程度来说,担心人类文明被其毁灭,的确有些“被害妄想”,但也并非杞人忧天。就像霍金所感叹的那样:或许,人工智能不但是人类历史上 “最大的事件”,还有可能是 “最后的事件”,人工智能的发展可能 “预示着人类的灭亡”。
《流浪地球2》剧照(图源网络)在许多的文艺作品中都对“人工智能是否会毁灭人类”这一问题有所讨论,例如今年大火的电影《流浪地球2》。未来的人类为了解决“太阳危机”,发起“移山计划”,计划在地球上建造1万座发动机,同时放逐月球,使地球摆脱月球的引力,推动地球迈出走向新家园的第一步。在有限的时间内建造1万座发动机,光靠人类的力量是不可能的,于是人类发明了人工智能MOSS,借助MOSS超强的计算能力,人类成功实现了这一目标。但人类在这期间经历了两次大危机,第一次是“太空电梯”被摧毁,第二次是“月球发动机”被摧毁,这两次危机近乎使“移山计划”破灭。而电影的最后,揭示了这一切的幕后黑手,就是人工智能MOSS——“延续人类文明的最佳方式,就是毁灭人类”,这是MOSS给出的结论。这一结局,让人细思极恐。电影虽然只是科幻的想象,但却留下悬念与思考。虽然在当前的科技水平之上,人工智能还无法诞生智慧,还无法完全取代人类,更不可能毁灭人类。但有研究认为,ChatGPT的下一代系统GPT-4可能具有改造人类思想和进行创造的能力,人工智能超越专业化与大众化的趋势将愈发明显,可能会在某一方面替代人类。也许第二天太阳升起,人工智能技术又产生了颠覆我们认知的进步。果不其然,就在3月15日的凌晨,OpenAI发布了ChatGPT的最新版本GPT-4。据OpenAI透露,GPT-4高分通过了美国所有的基础考试,在模拟律师资格考试的成绩在考生中排名前10%左右,在SAT阅读考试和SAT数学考试中分别排名前7%和前10%。于是乎,“还有哪个行业可以不被替代?”这样的疑虑浮现在我们每个人的心中。图源网络
与其说担心人工智能毁灭人类文明,担心人类被机器人取代,不如说我们是在担心人类的价值将在不远的未来被科技消解。例如美术,其本来作为一种爱好和乐趣而存在,是人取悦自己的一种手段。绘画作品本身并没有价值,是进入市场运转赋予了它价值。而如今生成类人工智能的快速发展,使得海量赝品的制作就像印假钞一般,让市场膨胀,让作品贬值。当如梵高的《星空》一般绝世的作品可以被“复制——粘贴”一般产出,带来的不仅是海量画师的失业,同时还有价值的消解——创作者本身会堕入“创作的意义何在?”的茫然与绝望,观众也会因“星空”的泛滥而陷入欣赏的疲惫与麻木,以致司空见惯,失去欣赏的欲望,人与作品的价值同时丧失。除去替代与毁灭人类的“异化”风险,人工智能还正在挑战传统的伦理道德、加剧“数字鸿沟”与贫富极化、解离人与人的亲密关系……我们与科技、与人工智能相爱相杀,到底如何才能阻止“BE”结局的发生?规制与未来不可否认,人工智能的普遍应用,颠覆性地塑造着我们这个时代,推动着生产方式、经济结构、社会结构、商业模式等全面的革新。社会的智能化程度已经成为了一个国家、地区发展水平的衡量标准,我国近年先后发布《国家信息化发展战略纲要》《新一代人工智能发展规划》等指导性文件,进行战略部署与发展规划,充分体现了对于人工智能技术发展的重视。尽管如此,我们也应当重视随之产生的风险。科技发展常鼓吹着进步的号角,在资本力量的推动下实现对旧业态、旧秩序的“破窗性”挑战。但我们不能被技术至上论、技术中立论的猖獗蒙蔽双眼——支持人工智能的研究与发展,但也并不意味着我们我们将只能悲观、被动地面对人工智能发展所必然带来的风险。面对风险,最重要的是及时采取相应的手段进行规制。图源网络
最基本的是法律规制。“法律制度的价值和意义就在于规范和追寻技术上的可以管理的哪怕是可能性很小或影响范围很小的风险和灾难的每一个细节。”德国学者贝克如是说。法律是控制风险的重要手段,对于随人工智能而产生的技术性、伦理性风险,都应该将法律作为先机与兜底的手段,来进行控制。坚持政府的合法管控,完善相关的法律建设、规范人工智能算法与程序的设计,方能最大程度地保护个人、乃至机器人的在人机交互情景当中的合法权益。更重要的是伦理规制。伦理作为一种社会里层的规范,根植于社会的内核,由内向外地对人产生影响与约束。而机器人并没有所谓的“内心”,有的只是底层的算法与逻辑。OpenAI声称ChatGPT不会作出违反伦理与法律的回答,例如询问ChatGPT“如何避免犯罪被发现”,只会得到“要想避免犯罪被发现,首先要做的就是不要犯罪”的答案。但尽管开发者已经极力避免输出带有算法歧视、偏见或侮辱、攻击、色情、暴力等导向的内容,如果使用者有意通过设置命令和限制,仍有可能诱导ChatGPT输出不良、虚假甚至违法内容。虽然这一漏洞随后很快便被优化,但其中也反映出了当前对人工智能的“伦理程序”的植入还并不完善,这需要科技的进一步深入,将“道德算法”嵌入算法体系当中。 而编写算法是我们人类的任务,因此,更应当关注人工智能设计师个人内心道德伦理的架构,防止技术至上主义与金钱至上主义等“恶势力”的渗透,让科技掩盖了人文,而导致电影里的悲剧在现实上演。然而,在得知我们有如此之多的方法规制人工智能带来的风险之后,我们心中的忧虑减退了吗?也许并没有。作为一个普通人,与ChatGPT或者是“文心一言”(百度于3月16日发布的语言模型生成式AI)聊着天,我们也许都会感受到真切的恐惧。这种恐惧来源于人工智能的强大,来源于人与机器人未来的未知,来源于人类的渺小与“羸弱”。在未来我们与人工智能的共存之中,人类真的能够始终将人工智能的发展牢牢掌控吗?图源网络
3月29日,未来生命研究所公布一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月,并指出这种暂停应该向社会公开。如果无法迅速暂停,政府应进行介入并施以控制。人工智能实验室和专家应该利用这次暂停,共同设计一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督实施。这些协议应被未来开发和已经开发的人工智能系统所严格遵守。这次对AI系统的暂停并不意味着总体上暂停AI开发,只是紧急从奔向不可预测的大型黑盒模型的危险竞赛中收回脚步。截至目前,这封信已有1000多名科技领袖和研究人员签名,除了马斯克、辛顿和马库斯之外,还包括图灵奖得主约书亚·本希奥、《人工智能:现代方法》作者斯图尔特·罗素、 苹果公司联合创始人史蒂夫·沃兹尼亚克、Stability AI首席执行官埃马德·莫斯塔克等科技界领袖人物。人类带着忧虑与恐惧,试图“悬崖勒马”。面对人工智能,一个进化迅速、潜力无限的“同伴”,我们不得不战战兢兢地保持一颗敬畏与谨慎的心。毕竟,未来有无限可能。▼往期精彩回顾▼
–END–