文章主题:欧盟, 人工智能, 责任指令, 法律

666AI工具大全,助力做AI时代先行者!

欧盟制定《人工智能责任指令》,让被AI技术伤害的人获得经济补偿

在 2023 年,人工智能政策的制定和监管手段不再局限于小众、单调的议题,而是逐渐成为备受关注的热门话题。这其中,OpenAI 的 ChatGPT 起到了至关重要的作用。它的出现使得人工智能成为了一种引人瞩目的焦点,同时也让大众更好地理解了人工智能系统的运作方式,以及其在应对各种问题时可能出现的失误。因此,ChatGPT 的出现不仅推动了人工智能的发展,也使得人们对其有了更加深刻的认识。

在政策的视角下,2023年无疑具有重大历史意义。首先,欧盟成功制定出了第一部全面针对人工智能的法律;其次,美国在参议院举行了一场关于人工智能的听证会,并随后颁布了行政命令;最后,我国针对推荐算法等领域做出了明确的法规设定。

在2023年,如果我们能够达成对人工智能的统一愿景,那么2024年很可能会成为政策从理念转化为实际行动的关键时期。关于2024年的前景,我想分享一下我的预测。

在2023年,美国政治对话首次真正将人工智能纳入议题之中,并且不仅仅是停留在讨论阶段。政策制定者也开始采取实际行动,最终使得拜登总统在2023年的10月底颁布了关于人工智能的行政命令。这项命令要求(各类公司和组织)提高人工智能的透明度,并制定新的行业标准。

行政令的发布,预示着一种以美国为主导的人工智能管理模式逐渐显现:它是一种充满智慧的管控策略,注重实施最佳实践,并在各机构之间建立协作机制,制定各自适用于各个经济领域的规定。

在2024年,我们将看到2023年的成果得以延续和发展。拜登政府所提出的各项任务将逐步付诸实践。此外,关于全新成立的美国人工智能安全研究所(US AI Safety Institute)的更多信息也将不断涌现。这个研究所将负责实施大部分由行政令提及的政策。

关于美国国会方面,我们尚无法预测究竟会有何新动向。近期,美国参议院共和党领袖查克·舒默(Chuck Schumer)表明,除行政令之外,还可能颁布新的法律法规。

在当前的立法提案中,我们已经看到了几项关注人工智能不同领域的法规建议,包括透明度、深度伪造以及平台问责制等。然而,对于这些提案中哪一项能够在2024年获得更广泛的支持,目前仍然存在不确定性。

然而,我们可以期待的是看到一种基于人工智能类型和使用方法,划分其风险程度并对其进行分级的方法。这一框架将类似于欧盟的《人工智能法案》。

前沿模型论坛(Frontier Model Forum,一家行业标准制定组织)的执行主任查理斯·梅塞罗勒(Chris Meserole)表示,美国国家标准与技术研究所已经提出了这样一个框架,每个部门和机构现在都必须将其付诸实践。

另一件显而易见的事情是,2024 年的美国总统大选将左右人工智能监管的大部分讨论。

我们已经看到了生成式人工智能制造的虚假信息如何影响社交媒体,因此我们可以预料到,美国大选期间发生的事情,将决定如何防止这项技术造成危害的辩论的走向。

(来源:STEPHANIE ARNETT/MITTR | ENVATO)

欧盟刚刚就《人工智能法案》达成一致,这是世界上第一部全面的人工智能法律。

经过激烈的技术性讨论,欧盟国家已经就《人工智能法案》的基本内容达成一致,随着欧洲各国和欧盟议会在 2024 年上半年陆续走完批准流程,该法案将很快生效。在最乐观的情况下,针对某些人工智能用例的禁令最快可能在年底实施。

这一切都意味着人工智能行业将在 2024 年变得愈发繁忙,因为公司和组织必须准备好,开始遵守新的规则。

尽管大多数人工智能应用将获得《人工智能法案》的“豁免”,但那些开发“对基本权利构成高风险的”基础模型和应用的公司,如那些旨在用于教育、医疗保健和警务等部门的模型和应用,都必须符合新的欧盟标准。

在欧洲,警察将被禁止在公共场所使用人工智能技术,除非他们已经获得了法院批准,并将其用于打击恐怖主义、阻止人口贩运或寻找失踪人员等特定目的。

还有一些人工智能用例将在欧盟被完全禁止,例如创建面部识别数据库,以及在工作或校园环境中使用情绪识别技术。

欧盟的《人工智能法案》将要求公司在如何开发模型方面更加透明,如果模型或使用高风险人工智能系统的组织造成了任何伤害,它们就要承担必要的责任。

开发基础模型的公司比如 OpenAI 它开发了 GPT-4 等其他人工智能产品所使用的模型,必须在法律生效后一年内完成整改,使其产品和行事方式遵守相关法律。其他科技公司有两年的时间来执行这些规定。

为了满足新的要求,人工智能公司必须更仔细地考虑如何构建系统,还要更严格地记录他们的工作,以便对其进行审查。

例如,该法律将要求公司对其模型的训练方式更加透明,并确保“高风险”人工智能系统使用了足够有代表性的数据集进行训练和测试,以最大限度地减少模型偏见。

欧盟认为,最强大的人工智能模型,如 OpenAI 的 GPT-4 和谷歌的 Gemini,可能会对其公民构成“系统性”风险,因此需要额外的工作来满足欧盟标准。

这些科技公司必须采取行动,评估和减轻风险并确保系统安全,同时还要报告严重事故和分享能源消耗的详细信息。至于哪些模型是高风险的,这将取决于公司来评估它们的模型是否足够强大。

开源人工智能公司在很大程度上不受《人工智能法案》透明度要求的约束,除非它们正在开发像 GPT-4 这样的计算密集型模型。如果未能如期遵守规定,后果可能是巨额罚款,或者导致它们的产品被欧盟禁用。

欧盟还正在制定另一项法案,名为《人工智能责任指令(AI Liability Directive)》,该提案将确保受到人工智能技术伤害的人能够获得经济补偿。关于该提案的谈判仍在进行中,2024 年将会出现更多进展。

其他一些国家则采取了暂时观望的做法。例如,谷歌 DeepMind 总部所在的英国表示,短期内不打算监管人工智能。然而,如果任何公司想在欧盟这个世界第二大经济体里面开展业务,就必须遵守《人工智能法案》。

美国哥伦比亚大学法学教授阿努·布拉德福德(Anu Bradford)称之为“布鲁塞尔效应”,通过率先出台监管政策,欧盟制定的标准将辐射全球各国并影响它们的政策制定者,进而塑造全球的商业和技术发展方式。

欧盟通过其严格的数据保护制度(GDPR,General Data Protection Regulation)成功实现了这一点,该制度被美国加州和印度等地区所效仿。它希望在人工智能方面继续成为主要影响者。

2024 年,我们可能会看到更多的人工智能法规在世界其他地区出台。一个值得关注的地区将是非洲。

欧洲发展政策管理中心的政策官员美乐达·墨索尼(Melody Musoni)表示,非洲联盟可能会在 2024 年初发布一项针对非洲大陆的人工智能战略,旨在制定个别国家可以复制的政策,以在人工智能领域提升竞争力,并保护非洲消费者免受西方科技公司的影响。

卢旺达、尼日利亚和南非等一些国家已经起草了国家人工智能战略,还在努力制定教育计划、发展计算能力和行业友好政策,以支持人工智能公司。

联合国、经合组织、二十国集团(G20)等全球或地区联盟也已开始建立有关人工智能的工作组、咨询委员会、原则、标准和声明。

经合组织等组织可能有助于在不同地区塑造监管一致性,从而减轻人工智能公司的合规负担。

从地缘政治角度来看,我们可能会看到不同国家对人工智能产业的态度变得愈发不同,例如是否将人工智能武器化。

2024 年,人工智能公司将在多大程度上考虑全球扩张,还是优先专注本土业务,这也是一件有趣的事情。他们可能不得不做出一些艰难的决定。

支持:Ren

运营/排版:何晨龙返回搜狐,查看更多

责任编辑:

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

Leave a Reply

Your email address will not be published. Required fields are marked *