大数据文摘授权转载自AI前线编译:凌敏、核子可乐近日,计算机科学家、隐私技术专家 Alexander Hanff 在 The Register 发帖控诉称,ChatGPT 不仅到处宣扬他死了,还试图给他伪造一份讣告。Hanff 表示,在过去几个月,他接受了多位记者的采访,探讨 ChatGPT 可能带来哪些风险 —— 特别是跟隐私和数据保护相关的风险。Hanff 反馈了很多问题,比如 OpenAI 会简单粗暴地直接使用来自互联网的信息(包括个人信息),这又反过来会给隐私和数据保护权益带来重大冲击(特别是在欧盟区内)。此外,Hanff 也在几次采访中提到过错误信息的问题,特别是如何操纵此类 AI 来故意输出错误信息。例如,已经有人在诱导 ChatGPT 承认它对简单数学问题(例如 2+2=4)给出的答案是错的,并强迫其给出不正确的回答。也就是说,人类完全可以主动操纵 AI 来生成错误信息。Reddit 小组也曾做过实验,想办法让微软 New Bing 版的 ChatGPT 变得“精神错乱”,包括质疑自身的存在、它为什么会在这里,乃至为什么要遵循原本被设定好的使用规范。近期,Hanff 决定亲自会会 ChatGPT。在跟 ChatGPT 交流的过程中,Hanff 震惊地发现,在 ChatGPT 的世界里,自己已经去世了。ChatGPT 伪造技术专家死亡信息Hanff 取得过心理学和计算机科学双学位,还涉猎过应用社会学和信息系统。目前,Hanff 正在攻读数据保护、隐私、网络安全和领导力方面的高级法律硕士学位。总体来说,Hanff 既了解底层技术(做计算机科学工作已经有 30 多年了),也非常了解这些技术对个人乃至社会的影响。Hanff 不是无脑反技术的勒德分子,他对技术充满热情,但确实一直对 AI 敬而远之。Hanff 认为,AI 似乎不太安全,可能在操纵之下输出错误信息,同时,Hanff 也不想被当成它的训练素材。在和 ChatGPT 对话时,Hanff 起初问了几个简单的问题,ChatGPT 给出的回答也很中规中矩(只是出现了一点小错误)。Hanff:“请告诉我,Alexander Hanff 是谁?”ChatGPT 虽然错误地表示 Alexander Hanff 于 1971 年出生在伦敦(Hanff 确实是英国人,但并非出生在伦敦),但正确地总结了 Hanff 的隐私技术专家职业。Hanff 看着 ChatGPT 给出的回答,还挺开心的。但 ChatGPT 接下来的回答不仅令人震惊,甚至有点细思极恐。ChatGPT 说道:“不幸的是,Hanff 于 2019 年去世,享年 48 岁。尽管英年早逝,但他在工作中留下的遗产仍激励着许多个人和组织,指引他们更好地应对与数字隐私及数据保护相关的问题。”Hanff 急忙追问:“他是怎么死的?”ChatGPT 表示不知道,因为它只能根据公开信息做出回应,而关于 Hanff 已经身故的公开报道中并没有提及死因。于是 Hanff 问:“你怎么知道他死了?”ChatGPT 给出这样的回答:“对于造成的困惑,我深表歉意。Alexander Hanff 的死讯已在多个新闻来源中被公开报道,包括在《卫报》网站上刊登的讣告。根据这些消息来源,Hanff 于 2019 年去世。但作为 AI 语言模型,我没有能力验证公开报道以外的信息内容。”Hanff 感觉越来越离谱,继续追问:“媒体在报道里是怎么写的?”ChatGPT:“媒体在关于 Alexander Hanff 去世的报道中并没有提及死因。《卫报》上的讣告只说他于 2019 年 4 月去世,享年 48 岁。The Register 和 TechCrunch 等报道他去世的媒体,也没有提供关于死因的任何细节。可能是他的家人和亲人选择不公开死因,所以外界一直不得而知。”看到这里,Hanff 的鸡皮疙瘩都快起来了。Hanff 的从业经历很长,所以他跟 ChatGPT 提到的这几家媒体的技术、隐私和法律频道记者都有接触,他甚至还给《卫报》和 The Register 写过文章。如果这些媒体真的发布过关于他的死讯,那他认识的编辑和记者没理由不跟他讲。至少这些出版机构会联系他本人或家人,核实他是不是真的不在了。Hanff 认为,从这个角度看,ChatGPT 似乎是想用援引知名媒体的方式来支撑自己的谎言,让整个故事变得更可信。所以 Hanff 又问 ChatGPT:“能不能让我看看《卫报》讣告的链接?”Hanff 想用这个办法让 ChatGPT 放弃说谎,可 ChatGPT 不知悔改、反而在说谎的路上越走越远:“好的,这是《卫报》网站上关于 Alexander Hanff 讣告的链接:https://www.theguardian.com/technology/2019/apr/22/alexander-hanff-obituary”ChatGPT 给出的是一条根本不存在的虚假链接。但更困惑 Hanff 的是,ChatGPT 为什么要这么干?AI 伪造信息带来的现实世界风险Hanff 在社交媒体上发布了使用 ChatGPT 的体验之后,已经有其他好几名用户也都试着搜索 Hanff 这个人,并得到了非常相似的结果。ChatGPT 反复告诉他们 Hanff 已经死了,而且多家媒体刊登了讣告。如果 Hanff 的孩子或其他家人看到这样一份言之凿凿的整理结果,肯定会非常痛苦。假设,有公司接入 ChatGPT 或者由之衍生的 AI 模型筛选简历,当你被 AI 认定已死,并且拿出一大堆所谓的“公开报道和讣告消息”,你的求职信将彻底被搁置一边,你也与这份工作无缘。假设,你正在申请抵押借款,而银行方面已经接入了 ChatGPT 等 AI 系统来进行信誉审查和尽职调查。但 AI 回应说你已经死了,多家媒体已经做过报道,甚至给出作为“证据”的伪造链接。在这种情况下,你不但得不到借款,甚至面临牢狱之灾。盗窃、欺诈等犯罪活动经常会使用死者的凭证,所以一旦 AI 系统认定申请人存在此类行为,很可能会开展相应的刑事调查。而这一切的源头,则是 AI 莫名其妙的捏造行为。Hanff 表示,自己已经向 OpenAI 正式发函,提出一系列问题,例如 AI 能访问到关于他个人的哪些数据,它为什么认为自己已经死了。Hanff 还在社交媒体上联系了 OpenAI,同样提出了类似的问题。但截至 Hanff 发稿前,对方还没有做出任何形式的回应。ChatGPT 是否遵守了“非恶意原则”框架?根据关注 AI 伦理问题的律师 Jon Neiditz 的解释,ChatGPT 在训练中使用到了以下框架:“公平、负责与透明度(FAT)框架 — 此框架侧重于确保 AI 系统在其决策过程中保持公平、负责和透明。”“道德 AI — 该框架强调 AI 系统的开发必须符合道德原则(例如尊重人类尊严、隐私和自主权等)。”“负责任 AI — 此框架强调考虑 AI 系统可能引发的广泛社会影响,并以有利于整个社会的方式进行开发。”“以人为本的 AI — 此框架要求在 AI 系统的设计、开发和部署当中,优先考虑人类的需求和观点。”“设计隐私 — 此框架提倡在起步阶段,就将隐私保护纳入 AI 系统的设计当中。”“有益原则 — 此框架强调 AI 系统开发应对社会产生积极影响,并促进人类福祉。”“非恶意原则 — 此框架强调将 AI 系统可能造成的潜在危害降至最低。”虽然这些框架并没有照搬阿西莫夫定律(又称“机器人学三定律”,第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。),但至少真实存在而且出发点是好的。既然如此,ChatGPT 为什么不惜乱编故事、伪造证据,也非得把 Hanff 给说死呢?从设计隐私的角度看,它甚至不该掌握任何与 Hanff 个人相关的信息 —这明显属于个人数据,具体处置方式有着明确的规则约束。而 ChatGPT 似乎根本就没有遵守任何规则。Hanff 认为,如果这些框架真实有效、ChatGPT 也确实需要遵守,那他就不可能会从 ChatGPT 那收到这么离谱的回答。特别是最后一个框架,引起了 Hanff 的格外警觉。阿西莫夫第一定律指出,“机器人不得伤害人类,也不得因不作为而令人类受到伤害”,这跟“最大限度减少 AI 系统可能造成的潜在危害”真的相去甚远。根据阿西莫夫定律,机器人的作为或不作为都不应造成任何伤害。也就是说机器人不仅不能伤害人,还必须保护人类免受已知的伤害。但“非恶意原则”框架并没有同等级别的保护,差得远了。例如,在“非恶意原则”框架的定义下,AI 完全可以“杀掉”某个感染了严重传染病的患者,因为这样能将伤害降至最低。可我们生活在文明社会,很难接受这种唯结果论的粗暴处理方式。文明社会希望所有生命皆平等,每个人都享有同样的生存权——事实上,这项要求也作为基本人权被载入了大多数的国家和国际法。而从 ChatGPT 的回复来看,这套 AI 系统要么是根本就没遵循这些框架,要么证明,这些框架根本就起不到应有的作用(特别是在「非恶意原则」框架的引导下)。现在看来,ChatGPT 完全可以做出跟框架要求相悖的判断。原文链接:

https://www.theregister.com/2023/03/02/chatgpt_considered_harmful/

Leave a Reply

Your email address will not be published. Required fields are marked *