文章主题:自然语言处理, 大语言模型, 人工智能, 信息生产
本刊官方网站:
http://cjjc.ruc.edu.cn/
作者简介
张尔坤、张一潇,北京师范大学新闻传播学院博士研究生。
一
引言
以ChatGPT为代表的大型语言模型在互联网空间新兴生态中扮演了重要角色,其开放域多轮对话和生成技术突破为传播研究领域带来了新的变革。2023年5月14日,北京师范大学新闻传播学院携手清华大学新闻与传播学院新媒体研究中心以及《国际新闻界》,成功举办了“ChatGPT启示会”。来自我国知名学府如清华大学、北京大学、中国人民大学、北京师范大学等二十余名专家学者齐聚北京,针对“大语言模型下的信息生产与流通问题”、“伦理法规问题”以及“文化领域问题”进行了深入探讨,持续进行了为期一天的精彩研讨。最后,依据平等交流的学术原则,会议聚焦于大语言模型时代的新变化,提出了66个传播学研究新问题。
研讨嘉宾
(上午场)
美国卡耐基梅隆大学计算机系博士候选人戴舒琪
北京师范大学新闻传播学院讲师李倩
北京师范大学新闻传播学院副教授刘茜
北京师范大学新闻传播学院副教授钱忆亲
北京大学新闻与传播学院研究员、助理教授苏岩
北京师范大学艺术与传媒学院博士后赵蓓
清华大学社会科学学院副教授张开平
北京师范大学新闻传播学院副院长、教授周敏(主持)
中国人民大学新闻学院讲师张伊妍
北京师范大学新闻传播学院讲师、助理教授朱毅诚
研讨嘉宾
下午场
北京师范大学新闻传播学院副院长、教授丁汉青
北京师范大学新闻传播学院党委书记、研究员方增泉
北京大学新闻与传播学院教授胡泳
清华大学新闻与传播学院教授、院学术委员会主任金兼斌
中国人民大学新闻学院教授、传播系主任刘海龙
天津大学新媒体与传播学院院长、讲席教授陆小华
中国人民大学新闻学院教授彭兰
清华大学新闻与传播学院教授沈阳
北京师范大学新闻传播学院教授、计算传播学研究中心主任吴晔
北京师范大学新闻传播学院教授喻国明
北京师范大学新闻传播学院教授、新媒体研究中心主任张洪忠(主持)
中国传媒大学新媒体研究院院长、教授赵子忠
在今天上午的讨论中,我们有幸邀请到了北京师范大学新闻传播学院周敏教授担任主持人,而北京师范大学计算传播学研究中心主任则是吴晔教授,他为我们深入解读了“ChatGPT的技术逻辑”。吴晔教授将ChatGPT的技术原理概括为“四板斧”,分别对应着四个关键步骤。首先,我们要了解的是ChatGPT的第一“板斧”——文字接龙式的生成逻辑。这个过程基于统计学习,也就是说,ChatGPT可以根据输入信息预测出下一个可能的文本。然而,这种逻辑并不能让ChatGPT真正理解问题的含义。其次,第二“板斧”是解决答案引导的问题,也就是人为地引导“文字接龙”的方向。这一步是为了确保生成的回答能够满足人类的逻辑需求。接着,第三“板斧”则涉及到人类标注答案的质量。通过对答案的标注,我们可以将反馈数据传递给模型,以便模型能够根据这些反馈进行进一步的训练。最后,第四“板斧”就是强化学习。简单来说,这是一种模型的微调(fine-tuning)过程。在这个过程中,模型在与用户的交互中获得反馈,并根据这些反馈来持续进行自我调整和优化,以生成更优质的回答。
北京师范大学新媒体研究中心主任张洪忠教授主持了下午场的活动,并在活动中进行了引导发言。周敏教授则对上午场的讨论结果进行了详细的汇报。在活动中,张洪忠教授深入剖析了ChatGPT的技术特性以及大语言模型对互联网产生的影响,并指出大语言模型在应用ChatGPT过程中的两个重要技术突破。首先,开放域的多轮对话是第一个突破。这一技术的出现,使得对话技术不再局限于单一的一问一答模式,而是能够更好地适应复杂对话场景,为人机交互开启新篇章。其次,生成式文本技术是另一个突破。ChatGPT采用的生成式路径犹如“接龙游戏”,这两个技术突破推动着人机交往进入新阶段,使自然语言技术从简单的信息处理升级为接近人类的沟通与交流。此外,我们还需关注大语言模型背后的技术底座。尽管ChatGPT的应用形态只是大语言模型的冰山一角,但人们更应该关注的是大语言模型这一技术底座。我国正掀起一股大模型热潮,包括百度、阿里、腾讯、华为、字节跳动等企业以及清华大学在内的学府都纷纷推出了自家的研究成果。随着互联网的发展,未来将面临四大挑战:大模型是否会成为竞争的入门门槛?大资本的算力竞争是否将成为互联网竞争的基本方式?云端竞争时代是否已经来临?更重要的是,对话是否真的能成为平台现实存在的形式?这些问题都值得我们深入思考和探讨。
二
大语言模型时代传播学研究新问题讨论
议题一:大语言模型下信息生产与流通领域的问题
在 recent discussions on the issue of computational monopoly in large language models, a panel of renowned experts from China and abroad gathered at Tsinghua University’s School of Journalism and Communication to explore the implications. Among the participants were Professor Jin Jianbin from Tsinghua University, candidate for a Ph.D. program at the University of Pittsburgh, Da Shuqi from卡耐基梅隆大学, lecturer Zhang Yiyan from the School of Journalism at Renmin University of China, and postdoctoral researcher Zhao Bai from Beijing Normal University’s School of Art and Communication.Da Shuqi pointed out that the training of large language models requires massive computational resources, which has set a high threshold for the continuous exploration of big models by academicians. As a result, only a few large enterprises and institutions may participate in the research and development of cutting-edge large language models in the future. From the perspective of information production, computational monopolies could lead to market domination of application markets, thereby undermining the diversity of information production.Furthermore, Zhang Yiyan highlighted the potential risk of value domination associated with computational monopolies, particularly when large language models are applied to news production and circulation. The biases and stereotypes carried by these models might be further strengthened and amplified. Therefore, if large models are to be used in news production, they require greater transparency and a deep understanding of technology among news professionals.Shao Bai also raised an insightful concern: as large language models continue to evolve, the increasing demand for computing resources and economic costs may lead to further state competition. To this issue, Professor Jin Jianbin believes that international competitions for large models cannot be avoided. He emphasizes the importance of early movers advantage in such competitions, noting that technological advantages may lead to a “win-take-all” situation under the Matlab effect, making it necessary to regard large language models as strategic resources and layout them early to seize the opportunity.
在 second 部分,我们有幸邀请到了北京大学新闻与传播学院的助理教授苏岩和张伊妍,他们就大语言模型与知识鸿沟这一重要议题进行了深入探讨。每次技术的革新都会引发类似的疑问:知识的鸿沟是得以修复还是进一步加大?苏岩指出,从知识生产的环节来看,鸿沟实际上已经扩大。这是因为,原本拥有更多信息资本的群体将继续掌握知识生产的主动权。然而,张伊妍却持有不同的观点,他认为大语言模型有可能推动知识的民主化进程。举例来说,相较于搜索引擎,老年人通过自然语言获取信息能够大大降低他们的认知成本。此外,也有许多人表示 ChatGPT 在学习编程方面提供了极大的便利,这意味着技术学习层面的鸿沟正在逐步缩小。
在中国人民大学新闻学院的 Prof. Peng Lan、天津大学新媒体与传播学院的 Prof. Lu Xiaohua、清华大学社会科学学院的副教授 Zhang Kaiping、赵蓓、李倩、苏岩等专家的讨论中,他们共同关注到了在大语言模型环境下虚假信息传播所带来的挑战。Prof. Peng Lan 警告说,随着 AIGC(人工智能生成内容)技术的发展,我们可能会进入一个真假难辨的信息空间,这对个人和社会的信息环境都构成了巨大的威胁。 Prof. Lu Xiaohua 提出了一个值得深思的问题:如何确保由人工智能生成的内容符合现有的知识体系和知识规则?当前采用的大模型检测大模型的方法是否有可能陷入逻辑误区?同时, Prof. Zhang Kaiping 提出了 ChatGPT 在跨文化语境下传播虚假信息的问题。由于不同文化背景下的人群有不同的认知模式,因此在西方被认为是真实的资讯在其它文化背景下可能引发巨大争议。 Prof.苏岩强调了媒介素养在应对虚假信息传播中的重要性。她认为,媒介素养可以像一个内在的屏障,帮助人们在复杂的信息环境中构建一个良好的知识体系,防止被虚假信息所侵害。从社交机器人的传播角度出发,赵蓓也表达了类似的担忧。她认为,大语言模型可能会生成具有极高迷惑性的信息,甚至可能被用于传播虚假信息或进行舆论操纵。在她看来,当前社交机器人主要停留在一级传播阶段,但如果结合大语言模型和社交机器人,可能会产生类似人类的交流能力,从而进一步强化社交机器人传播虚假信息的负面影响。北京师范大学新闻传播学院的李倩讲师也关注到了大语言模型时代的社交机器人问题:随着社交媒体上人类和机器人的行为越来越相似,现有的社交机器人识别系统是否还能有效应对?对此,吴晔给出了积极的回答:社交机器人识别实际上是一个“魔高一尺,道高一丈”的过程。机器人识别不仅在文本层面,还包括其他一些固有行为特征,因此未来仍有机会通过算法应对。然而,戴舒琪对此持有保留态度。
其四,北京师范大学新闻传播学院教授喻国明、中国传媒大学新媒体传播研究院教授赵子忠、北京师范大学新闻传播学院研究员方增泉、北京师范大学新闻传播学院副教授刘茜、北京师范大学新闻传播学院助理教授朱毅诚、李倩、赵蓓还谈到了大语言模型在信息生产过程中的潜在影响。喻国明认为,大模型是一个“出道即巅峰”的现象级媒介,对人类社会的影响越来越深刻和全面。赵子忠提出问题:大语言模型如何变革信息聚合和信息分享模式?刘茜指出:在大语言模型的背景下,应当更多去思考技术对于社会公众的自信或者自我效能的影响是怎么样的?尤其是当前正处于过渡阶段,不同群体对技术可能有不同的反应。朱毅诚接着这个话题谈到:我主要考虑了两个方面的问题,第一是ChatGPT作为内容创作过程中的工具、对话对象,这种“联合信息生产”或者说“信息共建”的能力和结果的差异性研究是值得关注的;第二是内容强依赖行业,如新闻、教师、营销等行业的培养和行业组织内部的沟通和关系重构的问题。另外两位学者李倩、赵蓓都提到了信息产生过程中的人机交互问题,李倩更侧重于大语言模型对虚拟现实(VR)人机交互的影响,赵蓓则更关注大语言模型对人机交互(UI)可能带来的改变。最后,北师大新闻传播学院党委书记、研究员方增泉对大模型训练语料不对称、不平等的问题提出了担忧。
议题二:大语言模型下伦理法规领域的问题
随着人与大语言模型创作边界逐渐模糊,模型透明度对受众的影响引起了北京大学新闻与传播学院教授胡泳、张伊妍、赵蓓等学者的关注。胡泳指出:任何机器学习技术的工作原理一定比手工编码系统更不透明,甚至科技公司的工程师也很难确切地说明算法的工作方式,这种不确定性的叠加可能会在未来某个时间节点产生不确定性的“爆炸”。张伊妍基于人机共创背景谈到:当人接到一个创作任务,把创作目的转换为大语言模型的输入指令并对输出结果进行适当修改的过程中,人机已经融合并形成一种赛博格(cyborg)的创作效果,这导致人与大语言模型创作边界的模糊。透明度问题的重点在于将自主权留给受众(keep them informed),通过百分比方式呈现人与大语言模型双方对内容的贡献比例。赵蓓认为可以将透明度问题细化为算法透明度、数据透明度、使用透明度三个组成部分。在算法透明度上,一些大型语言模型如GPT-3的算法已经公开,人们可以通过学习模型的内部机制和参数了解其工作方式,并据此分析模型生成内容的偏见和错误,但GPT-3之后OpenAI、谷歌不再公开算法,透明度的降低可能会影响大语言模型的未来发展;在数据的透明性方面,大语言模型的训练数据通常是不公开的,整个决策过程往往是一个黑箱;在使用透明度上,赵蓓指出在使用大语言模型之前,应先制定规范使用透明度标准,避免陷入被动的“使用—检测”竞争之中。
其二,戴舒琪、苏岩等学者提出ChatGPT使用中的隐私保护的问题。戴舒琪以患者就医为例指出,医生输入患者信息并利用ChatGPT为患者开具自动病历的过程中,患者信息会被传输至美国OpenAI公司的服务器上,如何保护患者个人隐私将成为新的问题。苏岩认为,ChatGPT带给人的即时性便捷是仅仅是一种表象,长此以往的后果可能是“数字利维坦”的出现,届时个人隐私数据变为公开信息。赵蓓提到,目前基于大语言模型开发的聊天机器人已能够根据大量聊天记录合成虚拟用户,这一虚拟用户类似于真人用户的数字化身,与虚拟用户的对话可能导致真人用户的隐私泄露。
其三,喻国明和陆小华两位教授认为大语言模型将对社会治理逻辑产生革命性影响。喻国明指出:从古至今人类社会的政治、经济、文化都属于精英治理模式,而技术对于人类社会最大的颠覆在于人类平等性的增强,拉平人与人之间的差距,打破精英和大众之间的壁垒,削弱精英赋权的基础,这将对未来包括传播在内的整个社会治理、运作产生重大甚至根本性的影响。同时,人类增强可能导致精英治理的“黄昏”。在技术的加持下,人类可以从自然版本的身心结构发展到更聪明、更长寿也更符合人性的后人类结构,这一增强使人的差距骤然缩小,这是技术最重大的社会影响。这一影响可能从两个角度来改变未来的发展趋势,一是将人的体能、智能与领袖能力均值化,精英治理彻底变成所谓的庸众治理,但这种情况发生的可能相对细微。更大的可能在于人类增强技术无法拉平人的差距,精英治理会以弱形式长期存在,形成一种新型的普遍强人治理,将精英治理改头换面保持下去。社会治理机制与逻辑的过渡、转变将是面对未来的重大问题。陆小华认为,大语言模型已经在重构社会规则,第一层表现为法律治理规则的重构,互联网、数字技术等相关法律将被改写;第二层表现为传播主体的重构,大语言模型将成为新兴内容生成主体,让社会进入人机共生时代。
其四,北京师范大学新闻传播学院副教授钱忆亲提出了AI伦理法规制的落地问题。钱忆亲指出:关于AI伦理法规学界已讨论多年,当下相关探讨已度过达成某种标准或共识的阶段,进入到实施阶段,即如何把AI伦理落地的阶段。目前国际社会关于AI伦理的探讨仍然比较抽象化、概念化,中国的AI伦理法规如何落地是学界亟需关注的问题。另外,中国大陆在AI伦理的国际标准制定中处于弱势地位,因为目前所有AI伦理的国际标准制定都没有中国大陆代表参与,长此以往将形成布鲁塞尔效应,对中国人工智能公司、产品出海构成不利。
议题三:大语言模型下文化领域的问题
ChatGPT到底是什么,在传播中扮演了何种角色?这个问题受到北京师范大学新闻传播学院教授丁汉青、中国人民大学新闻学院教授刘海龙两位专家的关注。丁汉青指出:技术是人类为了特定目的而创造出的方法和手段,因此ChatGPT实际可以视为一种技术、一种人造物。丁汉青认为,对ChatGPT的研究可从四个分析单元入手,一单元是人工智能制品的分析,探讨大语言模型在产生关系中的定位,探讨人机共生时代的新常规,侧重互动关系的建构;二单元是技术系统的分析,探讨大语言模型与人类的权力关系,分析大语言模型对人的认知模式、感知比例的影响;三单元是技术与社会的组合分析,探讨大语言模型的形塑方法;四单元是技术文化,主要重新审视人类中心的伦理观念,探讨大语言模型作为决策者的可能性与合理性。
刘海龙认为,ChatGPT一方面是一个技术,但另一方面又是人,因为ChatGPT所有的知识来自于人的知识积累。刘海龙提到,ChatGPT在知识库数据中概率抽取词语回复提问,常输出一些不痛不痒的“外交官式回答”,这些回答实际是一种知识的平均值,是以一种从众的、卸除责任的方式替代人类决策,“平均”“从众”“卸责”类似于海德格尔意义下的“常人”,却比“常人”拥有更多的知识,其回答水准超越“普通”,是全人类的平均值,因此可将ChatGPT视为一种“新常人”。刘海龙认为,ChatGPT同时构成一种大他者,不在场却又随时在场,潜在地影响着人们的思想和行为。
沈阳、刘海龙、金兼斌三位教授都认为大语言模型时代人与机器的共同生存必然影响到人的主体性与独立性。清华大学新闻与传播学院教授沈阳认为人与机器的共生存在三个阶段,第一个阶段是人的能力整体上大于机器,即人类当下所处阶段;第二个阶段是机器与人类能力接近阶段;第三个阶段是机器觉醒为硅基生命的阶段,此时人与机器的差距将被迅速拉大。刘海龙从他者消失的角度探讨了人类的主体性危机。刘海龙指出,人类与机器交流时完全以人为中心,无需顾及机器的意愿与想法,这取消了机器作为他者的可能性,使机器沦为奴隶,然而正如黑格尔所言,当奴隶完全顺从、承认、接受主人的意志时会产生一种颠覆,奴隶本身可能获得比主人更多的智力与能力。金兼斌认为,一方面大语言模型作为新技术具有一种解放功能,把白领从繁琐工作中解放,带来普惠服务(universal service),增强人的生产能力,其普世性与重要性或成为国家重要战略性资源;另一方面,当下人类已经不再处于本雅明所谓的机械复制时代,而是抵达人工智能复制时代,人类在面对人工智能时需要一种抵抗精神。金兼斌提到,电视时代人们需要抵抗沙发土豆(couch potato)的懒散状态;手机时代人们需要抵抗成为低头族;而在人工智能时代,人类应该主动追求美、创造美,保持人的独立性与尊严,拒绝成为智能技术的寄生虫。
胡泳教授则从机器发展的初衷对人机关系进行了反思,指出机器的建造的道路本存有两派观点,一派主张建造根据规则和逻辑进行推理的机器;另一派主张建造深度学习机器,让机器根据实例数据和所需输出生成看法,而这派观点正成为当下人工智能的发展道路。机器学习是一个黑盒,最简单的算法也可以触发不可预测的紧急行为,即便大科技公司的工程师也无法确切说明机器学习算法的工作方式,这必将导致不确定性大爆炸的发生。胡泳将机器中的智能喻为幽灵,他认为机器中的幽灵正逐渐达到难以琢磨和不可控制的地步,尽管人类是机器的创作者,却不是机器的主人。胡泳认为,人类是时候进行自我反思:为何制造大语言模型技术?为何把机器设计成类人的、有意图的样子。
彭兰教授关注AIGC(人工智能生成内容)对日常生活的艺术化影响。彭兰提到,过去的每一轮技术赋权都在某种意义上改变着人和艺术间的关系,例如智能手机使普通人也能完成曾被认为是高门槛的摄影创作。彭兰认为,AIGC艺术创作将在数字世界创造幻象和现实的交融空间,这些创作难分真假,对个体生存与整个社会的信息环境都将构成挑战,艺术领域里的所谓的超现实、超超现实,未来或许会成为生活的日常状态。
陆小华、赵子忠教授讨论了大语言模型时代传播学研究和学科建设将面临挑战。陆小华提到,从知识生产的角度看,人与人工智能共生时代产生新的传播主体,人工智能正在成为内容的生产者,而从政治角度看人工智能成为比一般人更有影响力的新权威,这一权威提高了专家门槛,即便跨学科者也难以辨识,这是新闻传播学过去从未遇见的事情。赵子忠对传播学的学科发展持乐观态度,认为当下新媒体教育的总体方向是正确的,Web1.0、Web2.0的教育仍有价值。赵子忠指出,多元化和多样化是人类社会最重要的方向之一,尽管人工智能潮流会对当下的学科教育产生冲击,但媒体教育一定是动态的、不断发展、不断变化主题的,新闻传播学需要找好角度与人工智能时代完成对接,发挥新闻传播学对人社会的贡献。
三
研究新问题
启示会结束后,北京师范大学新媒体研究中心团队将会议中所提到的66个研究问题进行了归纳、整理,并按照李克特五分量表制成问卷发放到参与讨论的学者群和计算传播学者群打分。截至2023年5月23日12点,团队共收回有效问卷35份。其中,51.42%(18人次)的应答者为“教授”职称,25.71%(9人次)的应答者为“副教授”职称,8.5%(3人次)的应答者具有“讲师”职称,另外还有2位博士后研究员和3位博士研究生参与填答。
研究团队对收回问卷数据进行因子分析发现,66个问题都呈现为一个因子。进一步研究团队将相关问题输入ChatGPT(GPT-4模型),基于机器理解来归纳、整理大语言模型时代传播研究的探索方向,结果呈现六个研究方向,模型对每个方向还做了简单归纳(见下表)。
表1:ChatGPT归纳的研究方向与学者评分情况
注:ChatGPT(GPT-4)所归纳研究问题较原始问题存在部分细节差异。
原文刊载于《国际新闻界》2023年第6期。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!