文章主题:人工智能, 责任指令, 欧盟, 美国
欧盟制定《人工智能责任指令》,让被AI技术伤害的人获得经济补偿
在 2023 年,人工智能政策的制定和监管手段不再局限于小众、单调的议题,而是逐渐成为备受瞩目的焦点。这其中,OpenAI 的 ChatGPT 起到了至关重要的作用。它的出现使得人工智能成为了一种热门话题,让大众更加关注这个领域。与此同时,ChatGPT 也让我们深入了解了人工智能系统的运作机制,以及它们在某些情况下可能出现的失误。这种现象的出现,无疑为我们提供了一个更全面、更深入的认识。
在政策的视角下,2023年无疑是具有重大历史意义的一年。首先,欧盟成功制定出了第一部全面针对人工智能的法律;其次,美国在参议院举行了一场关于人工智能的听证会,并随后颁布了行政令;最后,我国针对推荐算法等领域做出了明确的规则设定。
在2023年,如果我们能够达成对人工智能的统一愿景,那么2024年很可能会成为政策从理念转化为实际行动的关键时期。关于2024年的前景,我想分享一下我的预期。
在2023年,美国政治对话首次真正将人工智能纳入议题之中,并且不仅仅是停留在讨论阶段。政策制定者也开始采取实际行动,最终使得拜登总统在2023年的10月底颁布了关于人工智能的行政命令。这项命令要求(各类公司和组织)提高人工智能的透明度,并制定新的行业标准。
行政令的发布,预示着一种以美国为主导的人工智能管理模式逐渐显现:这种模式注重优化实践,对人工智能产业较为友好,同时通过各个机构制定相应的规章制度,从而实现对各经济领域的差异化监管。
在2024年,我们将看到许多基于2023年的发展趋势逐步得到落实。拜登政府所发布的行政令中所涉及的众多任务将逐渐付诸实践。此外,关于全新成立的美国人工智能安全研究所(US AI Safety Institute)的更多信息也将不断涌现。这个研究所将负责执行行政令中大部分政策的具体实施。
关于美国国会方面,我们尚无法预测具体会有何新动向。近期,美国参议院共和党领袖查克·舒默(Chuck Schumer)表明,除行政令之外,还可能颁布新的法律法规。
在当前的立法提案中,我们已经看到了几项关注人工智能不同领域的法规建议,包括透明度、深度伪造以及平台问责制等。然而,对于这些提案中哪一项能够在2024年获得更多的支持,目前仍然存在不确定性。
然而,我们可以期待的是看到一种基于人工智能类型和使用方法,划分其风险程度并对其进行分级的方法。这一框架将类似于欧盟的《人工智能法案》。
前沿模型论坛(Frontier Model Forum,一家行业标准制定组织)的执行主任查理斯·梅塞罗勒(Chris Meserole)表示,美国国家标准与技术研究所已经提出了这样一个框架,每个部门和机构现在都必须将其付诸实践。
另一件显而易见的事情是,2024 年的美国总统大选将左右人工智能监管的大部分讨论。
我们已经看到了生成式人工智能制造的虚假信息如何影响社交媒体,因此我们可以预料到,美国大选期间发生的事情,将决定如何防止这项技术造成危害的辩论的走向。
(来源:STEPHANIE ARNETT/MITTR | ENVATO)
欧盟刚刚就《人工智能法案》达成一致,这是世界上第一部全面的人工智能法律。
经过激烈的技术性讨论,欧盟国家已经就《人工智能法案》的基本内容达成一致,随着欧洲各国和欧盟议会在 2024 年上半年陆续走完批准流程,该法案将很快生效。在最乐观的情况下,针对某些人工智能用例的禁令最快可能在年底实施。
这一切都意味着人工智能行业将在 2024 年变得愈发繁忙,因为公司和组织必须准备好,开始遵守新的规则。
尽管大多数人工智能应用将获得《人工智能法案》的“豁免”,但那些开发“对基本权利构成高风险的”基础模型和应用的公司,如那些旨在用于教育、医疗保健和警务等部门的模型和应用,都必须符合新的欧盟标准。
在欧洲,警察将被禁止在公共场所使用人工智能技术,除非他们已经获得了法院批准,并将其用于打击恐怖主义、阻止人口贩运或寻找失踪人员等特定目的。
还有一些人工智能用例将在欧盟被完全禁止,例如创建面部识别数据库,以及在工作或校园环境中使用情绪识别技术。
欧盟的《人工智能法案》将要求公司在如何开发模型方面更加透明,如果模型或使用高风险人工智能系统的组织造成了任何伤害,它们就要承担必要的责任。
开发基础模型的公司比如 OpenAI 它开发了 GPT-4 等其他人工智能产品所使用的模型,必须在法律生效后一年内完成整改,使其产品和行事方式遵守相关法律。其他科技公司有两年的时间来执行这些规定。
为了满足新的要求,人工智能公司必须更仔细地考虑如何构建系统,还要更严格地记录他们的工作,以便对其进行审查。
例如,该法律将要求公司对其模型的训练方式更加透明,并确保“高风险”人工智能系统使用了足够有代表性的数据集进行训练和测试,以最大限度地减少模型偏见。
欧盟认为,最强大的人工智能模型,如 OpenAI 的 GPT-4 和谷歌的 Gemini,可能会对其公民构成“系统性”风险,因此需要额外的工作来满足欧盟标准。
这些科技公司必须采取行动,评估和减轻风险并确保系统安全,同时还要报告严重事故和分享能源消耗的详细信息。至于哪些模型是高风险的,这将取决于公司来评估它们的模型是否足够强大。
开源人工智能公司在很大程度上不受《人工智能法案》透明度要求的约束,除非它们正在开发像 GPT-4 这样的计算密集型模型。如果未能如期遵守规定,后果可能是巨额罚款,或者导致它们的产品被欧盟禁用。
欧盟还正在制定另一项法案,名为《人工智能责任指令(AI Liability Directive)》,该提案将确保受到人工智能技术伤害的人能够获得经济补偿。关于该提案的谈判仍在进行中,2024 年将会出现更多进展。
其他一些国家则采取了暂时观望的做法。例如,谷歌 DeepMind 总部所在的英国表示,短期内不打算监管人工智能。然而,如果任何公司想在欧盟这个世界第二大经济体里面开展业务,就必须遵守《人工智能法案》。
美国哥伦比亚大学法学教授阿努·布拉德福德(Anu Bradford)称之为“布鲁塞尔效应”,通过率先出台监管政策,欧盟制定的标准将辐射全球各国并影响它们的政策制定者,进而塑造全球的商业和技术发展方式。
欧盟通过其严格的数据保护制度(GDPR,General Data Protection Regulation)成功实现了这一点,该制度被美国加州和印度等地区所效仿。它希望在人工智能方面继续成为主要影响者。
2024 年,我们可能会看到更多的人工智能法规在世界其他地区出台。一个值得关注的地区将是非洲。
欧洲发展政策管理中心的政策官员美乐达·墨索尼(Melody Musoni)表示,非洲联盟可能会在 2024 年初发布一项针对非洲大陆的人工智能战略,旨在制定个别国家可以复制的政策,以在人工智能领域提升竞争力,并保护非洲消费者免受西方科技公司的影响。
卢旺达、尼日利亚和南非等一些国家已经起草了国家人工智能战略,还在努力制定教育计划、发展计算能力和行业友好政策,以支持人工智能公司。
联合国、经合组织、二十国集团(G20)等全球或地区联盟也已开始建立有关人工智能的工作组、咨询委员会、原则、标准和声明。
经合组织等组织可能有助于在不同地区塑造监管一致性,从而减轻人工智能公司的合规负担。
从地缘政治角度来看,我们可能会看到不同国家对人工智能产业的态度变得愈发不同,例如是否将人工智能武器化。
2024 年,人工智能公司将在多大程度上考虑全球扩张,还是优先专注本土业务,这也是一件有趣的事情。他们可能不得不做出一些艰难的决定。
支持:Ren
运营/排版:何晨龙返回搜狐,查看更多
责任编辑:
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!
评论(1)
非洲人工智能战略的发布可能对非洲大陆和全球科技产业产生什么影响?Visit Us Telkom University