文章主题:科技伦理, ChatGPT, 人工智能, 伦理问题

666AI工具大全,助力做AI时代先行者!

原创 徐欣欣 民主与法制时报

核心要义:ChatGPT所引发的科技伦理道德问题涉及多个方面,如社会公平均衡、学术伦理规范的维护、算法所存在的偏见与歧视等。为了实现数据正义,我们可以在技术层面融入法律道德评估机制,对外部则需强化科技伦理 constraint,从而促进科技与法律道德之间的健康发展。

武丹/制图

作者|徐欣欣

责编|薛应军

正文共2868个字,预计阅读需8分钟▼

在4月20日的北美时间中,Open AI的联合创始人Greg Brockman受到了“2023TED”大会的邀请,并在现场展示了ChatGPT Plus(GPT-4)的多项尚未公开的新功能和插件。据Greg Brockman的现场演示视频显示,GPT-4已经实现了端到端的跨业务流程、平台和系统的超级自动化功能,这一特性正是之前广受欢迎的开源应用Auto-GPT所著称的功能。

ChatGPT,作为由Open AI研发的自然语言处理技术,其采用的深度学习和人工智能技术使其具备模拟人类自然语言交流的能力,包括但不限于问答、对话以及文章生成等多样化任务。如今,ChatGPT已发展至第四代,其生成文章的能力更加成熟,不仅能够保证文章的连贯性和逻辑性,同时还能展现出强大的数据存储能力、超强的本地信息检索功能以及精准的语言识别技术。这一技术的出现,无疑是对智能机器人或人工智能技术的重要阶段性突破。然而,随着ChatGPT等先进技术的广泛应用,我们也应警惕其可能带来的科技伦理问题,这些问题值得我们高度关注和深入探讨。

ChatGPT带来的科技伦理道德挑战

ChatGPT 的问世犹如开启了一个生成式人工智能的“潘多拉魔盒”,既给人们带来了令人惊喜的突破,也引发了诸如科技伦理等方面的种种关切与担忧。

以生成式人工智能为核心的人工智能产业崛起,可能导致未来劳动力市场中出现薪资倾斜现象。例如,与AI开发相关的职位可能获得较高薪酬,而被AI替代的职业可能面临降薪甚至失业的风险。当前,生成式人工智能如ChatGPT已逐渐成为资本投资热点,相关企业市值纷纷上升,从而带动了许多企业的资本收益率显著增长,尤其在技术浪潮中 leading 的企业及其国家获得了丰厚收益。这种趋势有可能加剧社会收入不均衡,最终导致“数字鸿沟”现象的出现,即部分人群因基础设施短缺等原因,难以适应社会智能化的快速发展。因此,当决策者依据这些数据制定政策时,可能会不自觉地忽视非数据群体需求,将其排除在算法数据收集范围之外。

自2022年年末以来,ChatGPT已成为我国众多学生完成学业或撰写论文的首选工具,对其产生了深远影响。根据央视新闻的报道,一项调查发现,美国有89%的学生选择使用ChatGPT来完成他们的学业任务。这种方法能有效避免“论文抄袭”等问题,同时其效率和质量也远远超过了之前许多商家开发的学习软件,对于学生的吸引力极大。面对ChatGPT可能在教育学术界引发的问题,许多学校和组织纷纷发出警告,禁止或严格限制学生使用ChatGPT进行论文写作。一些美国的中学和大学已经逐步宣布校园内禁止使用ChatGPT,并通过减少课后作业的量,防止学生利用家庭网络访问ChatGPT以进行作弊行为。此外,《科学》杂志已明确禁止在投稿的论文中使用ChatGPT生成的文本,而《自然》杂志也在更新投稿规则时强调,ChatGPT等大语言模型只能被视为一种工具,并在论文的方法部分加以适当的说明,但不得将其作为作者列出。这些举措都显示出我国对于ChatGPT使用的严肃态度和对 potential问题的警惕性。

算法偏见与歧视问题。虽然ChatGPT可以为人类带来更加智能化的体验,但它的智能化程度仍然有限,尤其是在理解和应用知识方面。ChatGPT可以通过大量的训练数据不断提高自己的服务能力,但它仍然无法像人类一样具有深刻的理解和应用能力,因此,在某些高度复杂和专业化的领域,人类的经验仍然无法被替代。当面对一些复杂的问题或者情境时,ChatGPT则很难给出正确的答案或者建议。在首批用户测试中,ChatGPT甚至出现了辱骂用户、诱导用户离婚等言论。可见,一旦训练语料库中包含有害言论、错误言论时,人工智能习得后所作出的有害行为,将进一步加剧算法偏见和歧视。

ChatGPT科技伦理问题的法律规制方案

科技伦理是理性的产物,它的底层逻辑要求科技创新和成果只能有益于或最大限度地有益于人、生物和环境,而不能损伤人、损害生物和破坏环境,即便不可避免会不同程度地损人毁物——如药物的副作用,也要把这种副作用降到最低,甚至为零。技术与法律是社会治理的两种基本手段,兴科技与强法治二者应相辅相成,共同引导社会向善向好。面对科技伦理失范问题,可从以下方面做起:

在技术内部层面嵌入法律道德评价机制,实现数据正义。数据是信息的载体,是一种可被编码的符号,本身不具有价值倾向。ChatGPT等生成式人工智能依托数据构建而来,在一定程度上会体现设计者、生产者个人偏好的技术治理程序,并在“物理-数字”双重空间影响法律关系。技术伦理失范的底层逻辑在于设计者等主体对数据的解读具有自我主观认识,这种主观认识因不符合法律价值规范、公序良俗等社会共识,使得数据具有非正义的价值倾向,而导致伦理偏差。因此,科技伦理的实现基础是回归数据正义。具体来说,一方面应在意识形态层面建立诸如公平正义、安全法治、共建共享等体现社会共识的数据价值观,引导数据主体建立对科技伦理的正确认知。生成式人工智能的科技伦理,主要表现为科研活动中人与社会、人与自然以及人与人关系的思想与行为准则,涉及科学研究中的伦理、科研人员应当遵守科技伦理、科研成果应用中的伦理。另一方面,应培养人工智能的伦理自主习得能力,以技术制约技术。ChatGPT等生成式人工智能的伦理失范之所以具有隐蔽性、耐受性以及机制化特点,是因为人工智能程序结构具备深度学习的主动性。因此,要确保科技伦理朝着数据正义方向发展,需要培养算法自主的伦理习得能力;要在技术知识和法律价值中间实现弥合,并通过人-机反复博弈,不断矫正、升级、完善自我约束技术。

在外部层面以制度的规范性加强科技伦理约束,实现科技与法律、科技与道德的良性互动。伦理规范是调节人与人之间关系的行为准则,旨在引导人们作出有道德、值得推崇的行为。科技伦理是指科技活动中的人与人、人与社会、人与自然之间的伦理关系,旨在规范科技活动符合道德要求。因此,在制度层面加强科技伦理约束,就要加强科技伦理审查和算法影响评价,重点考察技术应用是否在现行法律框架下运行、能否依法保障人们合法权利。具体来说,包含两个方面:第一,建立科技伦理(审查)委员会。结合企业具体情况,厘清决策部门、管理部门、业务部门同科技伦理(审查)委员会之间的关系和职责分工,明确科技伦理在企业常态化管理中的工作机制。第二,组织开展算法应用调查,识别不同应用场景下的算法滥用危害,加快制定算法应用规则和标准规范,建立算法应用影响评估制度。针对典型场景,要求企业在算法正式上线前,评估算法对消费者权益、个人基本权利等方面的影响,并针对评估中发现的相关风险,采取相应防范措施。

ChatGPT等生成式人工智能不仅改变生产关系,而且改变人们认知方式和行为能力,如何应对这种生成式人工智能,值得法律人认真思考。有的学者提出,应当在一定程度上赋予生成式人工智能主体地位,并使其承担相应法律责任。笔者认为,法律人格地位的确认应当是有限度的,在遵循科技向善基础上,算法设计者、生产者、使用者等相关主体仍需按照分级分类的要求承担相应法律责任。

综上所述,完善科技伦理治理体系,提升科技伦理治理能力,有效防控科技伦理风险,应当进一步加深对人工智能正当技术程序工具与算法责任原理的研究,平衡过程与结果端的规制手段,引入风险场景与类别区分式规制模式,为生成式人工智能的可持续发展提供有效的规制方案。

(作者单位:东南大学法学院)

《ChatGPT的科技伦理问题及法律治理》

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

Leave a Reply

Your email address will not be published. Required fields are marked *