文章主题:欧盟, 人工智能, 监管, 责任指令
关于这个问题,今天图图知道和大家一起从【损害认定:欧盟对人工智能监管又进一步】的角度来谈一谈。 一图读懂全球经济放缓中各国央行的应对措施。
摘要
当全球还在为人工智能安全提出建议性的行动准则时,欧盟更向前走了一步,通过新颁布的两项指令——产品责任指令和人工智能责任指令——对人工智能产品安全、安全责任认定提出立法标准,提供了一种机制来确定当人工智能发生故障或造成伤害时谁应该承担责任。目前指令倾向于将举证的压力转移给人工智能企业而非消费者,允许就AI侵犯基本权利的行为进行索赔,还可以在特定情况下要求披露任何风险等级AI产品的信息。
图源:https://www.gamingtechlaw.com/2018/12/ai-regulate-artificial-intelligence.html为适应数字时代、循环经济及全球价值链变迁对产品责任规则的现代化要求,欧盟委员会于2022年9月28日更新了《产品责任指令》(The Product Liability Directive)。针对人工智能造成的具体损害,还提出了《人工智能责任指令》(The AI Liability Directive)作为附加指令。修订后的产品责任指令将其此前设立的所有规则扩展到配有人工智能的产品,人工智能指令则专门确定了针对人工智能产品所致损害的使用规则。
一、欧盟人工智能监管新角度:责任指令
随着人工智能的广泛使用,人工智能造成伤害和财产损失的案例层出不穷。这些损害有的是有形的,如自动驾驶的汽车造成的安全事故,有的则是无形的如亚马逊曾使用的人工智能招聘系统被证明歧视女性。当全球还在为人工智能安全提出建议性的行动准则时,欧盟更向前走了一步,通过新颁布的两项指令对人工智能产品安全、安全责任认定提出立法标准。责任指令将成为实施人工智能监管的一个重要方面,因为它提供了一种机制来确定当人工智能发生故障或造成伤害时谁应该承担责任。
颁布于1985年,产品责任指令是欧盟统一产品责任法律制度的重要基石,也是最早协调欧洲单一市场的欧盟法律之一。其为公民因产品缺陷而遭受损害时要求赔偿提供了法律依据。然而,当时的产品责任指令并不涵盖人工智能在内的数字技术产品。今年修订后的产品责任指令提案调整了现有的产品责任规则,以解决包括人工智能系统在内的数字系统或先进机械对消费者带来的损害问题。产品责任规则提案修订的主要内容包括:(1)软件或人工智能系统和人工智能产品在本提案中被明确命名为“产品”,这意味着人们可以就有缺陷的人工智能系统造成的损害索赔,包括人身伤害、财产损失或数据丢失;(2)不仅硬件制造商,而且影响产品工作的软件供应商和数字服务供应商都可能被追究责任;(3)制造商需对已经投放市场的产品更新承担责任。如果软件更新导致智能家居产品不安全,或者软件制造商未能解决网络安全漏洞,用户可以提起诉讼,向软件制造商寻求赔偿;(4)进口商、授权代表、履行服务提供商或分销商等其他方将会对在欧盟以外制造的有缺陷的产品负责。
此外,在新修订的两项产品责任指令中还引入了“因果关系推定”(presumption of causality)原则,以减轻受害者的举证负担。这意味着受害者只要证明产品的人工智能性能造成了对自己伤害,陈述清楚其间的因果关系就可以成功举证。如果人工智能企业不能证明其产品和服务不是造成受害者遭受到损害的原因,则推定加害成立。这一原则将举证的压力转移到了企业,降低了受害者在必须详细解释人工智能产品如何造成伤害时遇到的困难。人工智能责任指令还在某些特定条件下规定了相关企业信息披露的义务。对于传统产品,一旦出现缺陷,很容易看出哪里出了问题。对于人工智能,尤其是深度学习模型以及超大规模模型,情况可能并非如此。为了解决这个问题,受害者可以要求法院命令欧盟人工智能法案中定义为高风险人工智能系统的供应商披露有关其产品的相关和必要的证据,以便收集信息。通过引入从公司和供应商处获取证据的权利,受害者将拥有更多寻求法律赔偿的工具。根据欧盟《人工智能法案(The AI Act)》草案,高风险系统的供应商将必须妥善记录其系统信息,人工智能责任指令授权投诉人根据法院命令获取这些信息。相比之下,产品责任指令规定在保密性和商业秘密方面,法官可以要求披露任何产品的任何信息,涵盖所有人工智能系统,而不仅仅是那些高风险的。
值得注意的是,虽然产品责任指令和人工智能责任指令都有助于解决人工智能系统引发的产品责任认定的法律问题,其适用的损害范围却略有区别。产品责任指令只要求制造商对物质损害负责,包括死亡、人身伤害,包括医学上公认的心理伤害、财产损失或数据丢失。人工智能指令还涵盖了人工智能的滥用,允许就侵犯基本权利的行为进行索赔。例如,如果有人因为歧视性的人工智能招聘软件而未能通过面试,人工智能指令使得受害者可以寻求索赔。
二、责任指令与人工智能法案的互动补充
欧盟于2021年4月通过的《人工智能法案(The AI Act)》草案制定了基于风险分级制度的人工智能监管框架,以保护个人和企业的安全和基本权利,确保高风险人工智能系统的安全性和可信度,并加强欧洲内部人工智能的应用、投资和创新。最近通过的两项责任指令是对法案的补充,帮助消费者追究人工智能产品给他们带来损害并寻求赔偿。法案旨在防止人工智能带来的损害,但新颁布的指令为用户编织了一个安全网,以便他们在遭受损害时要求赔偿:第一,产品责任和人工智能责任指令的产品责任框架将涵盖所有类型的人工智能系统,不仅限于法案附件中定义的高风险人工智能系统。其次,法案详细规定了高风险人工智能系统需要满足的安全要求,以便在欧盟上市。当人工智能系统不符合这些要求时,新颁布的条例可推定其存在缺陷,用户可对人工智能提供商提出索赔。最后,人工智能责任指令近一步规定,在法案所包含的涉及的某些更普遍的风险(如歧视和侵扰性监视)情况下,受害者也可以要求索赔。
值得注意的是,欧盟在人工智能产品的责任认定方面,选择了指令的方式来实施监管,而非通过案例解决。这种方式的特点在于,欧盟并非直接规定成员国有义务采用何种方法来达成指定的目标——即识别和应对人工智能可能带来的损害,而是仅仅设定了一个期望的结果。具体而言,在两个指令获得通过之后,欧盟的成员国将有两年年的时间来将它们转化为国内法律。
三、结语
在欧盟加强人工智能监管的背景之下,新颁布的两项责任指令标志着欧盟对人工智能的监管正式将产品责任制度列入了监管框架中。学界有观点认为扩大制造商以及软件提供商的法律义务会阻碍人工智能技术创新和发展。欧盟逐步收紧的监管措施是否能实现其设立的保证人们和企业的安全和基本权利,同时加强人工智能的创新和投资的目标,仍待时间考验。
本文作者:皮雨鹭
编辑:任江龙
责编:云琪布日
刊物信息:《人工智能资讯周报》探讨人工智能对公共政策、治理和政策建议的影响,探索人工智能对商业、政治和社会的影响,以确定潜在的研究领域,探讨可能的合作研究和机构伙伴关系。本刊着重提供中国人工智能发展动态和对人工智能的思考,同时关注全球范围内人工智能相关研究动态。本刊旨在通过可靠的研究,来帮助企业、研究机构和公民预测和适应技术引领的变化。
今天的分享就到这里,想要获取更多精彩内容,欢迎关注“图图知道”!
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!