文章主题:聊天机器人, ChatGPT, OpenAI, 人工智能
近期,ChatGPT聊天机器人程序在网上引起了广泛关注。这款由美国人工智能研究机构OpenAI研发的先进聊天机器人模型,具备了学习并理解人类语言的能力,更可以依据对话内容的逻辑进行交互,并帮助人们高效地完成各种任务。
然而,你有没有想过,AI也会歧视?
近年来,AI伦理和AI歧视的问题频繁出现,其中也不乏对女性的不公平待遇。AI对女性的歧视主要表现在贬低女性形象、女性代表不足、性别刻板印象以及识别能力较弱等方面。
本文作者关注人工智能领域的性别偏见问题,并提倡从女性学和算法学两方面着手消除偏见。为实现这一目标,建立全面的偏见审查机制成为关键所在。同时,作者强调在推动性别平等的过程中,我们应关注科技、大数据等领域可能带来的其他社会不公和不义现象,以期确保人类社会的公平与正义。
是否定的声浪涌动在人们心中,然而,在算法无处不在的今天,我们却难以自主地抵抗算法的诱惑。 data scientist Cathy ONeil 提出,或许算法并非绝对科学,但它所蕴含的人工智能及其背后的“科学”算法,却深藏着性别偏见。是我们对算法的盲目崇拜遮住了我们洞察性别偏见的视野。
算法中的性别偏见
近年来,新闻报道中关于AI伦理和AI歧视的问题频繁出现,其中涉及到的性别歧视尤为引人关注。例如,在谷歌图片搜索中输入“CEO”,结果几乎全部为男性,这反映出AI在图像识别方面的性别偏见;而在翻译软件中,将“医生”翻译为男性,将“护士”翻译为女性的现象也时有发生,这体现了AI在语言处理中对性别角色的刻板印象。这些例子都提醒我们,AI技术的发展与应用应充分考虑伦理问题,尤其是性别平等问题,以确保科技能够造福人类社会,促进全人类的共同进步。
就像人类无法避免偏见与歧视一样,AI也存在着性别偏见。这种偏见主要表现在四个方面:低估女性、女性代表不足、固有观念与刻板印象、以及识别能力不足。在AI的六大领域中,“自然语言处理”领域的核心算法——词嵌入,就暴露出了一些问题。例如,在“女人:男人”的映射测试中,不仅出现了“垒球:棒球”这样的刻板印象划分,更是产生了贬低性的“保姆:老板”组合。这些现象都说明,AI的性别偏见问题是真实且严重的。
在性别偏见背后,隐藏着一种强大的歧视理论以及相应的算法流程。这种算法将社会偏见以编程语言的形式进行编码,从而使其具有更广泛的传播和影响力。在不知不觉中,这些被程序化的偏见进一步放大了社会中的性别差异,导致女性的权益受到损害,并加剧了现有的性别歧视现象。
性别偏见产生的机制:
社会学角度和算法结构
科学家凯西奥尼尔以一种颇具讽刺意味的方式,给那些藏匿于科学外衣之下的不公现象取名为“数学毁灭性武器”(WMDs),其英文全称与大规模毁灭性武器(WMD)相似。这一巧妙的修辞手法,暗示了若大规模运用算法,所带来的潜在危害。那么,究竟是一个存在瑕疵的算法是如何诞生的呢?
我们可以简单地把人工智能的代表算法之一——神经网络算法,理解为一个有许多层级的回归函数。通过大量的训练数据,算法将不断调整其中的系数,以使得对训练集的整体误差最小。不难发现,人工智能的本质是一个对大数据特征进行提取后形成的“黑箱”。正是通过这些特征值,这个“黑箱”才得以对新的个例做出预测。
大规模的数据是AI实现的基础,而算法被用于处理大量个案,那么哪些个体的需求能够成为一个算法的主要目的?答案显而易见,在统计性歧视的作用下,弱者的需求被消解。除性别以外,女性的种族、阶层、年龄、性取向等都成为女性被歧视的原因。单身女性现状或许能成为大数据参与交叉性压迫的例证:媒体通过大量报道“大龄未婚女性”“单身母亲”等话题,并利用“平均工资低”“年龄大”等刻板印象对单身女性进行污名化。这种刻板印象不仅反映在单身女性被歧视,也成为其他算法系统学习的数据,构成一个不恰当的反馈回路,加剧了性别不平等。
如何判断一个算法是否有偏见
可以见到,不公平的算法实际上正在加剧不平等,而算法本身的非实体性则很好地为他们开脱了罪名。假定我们接受了这种“让机器拥有话语权”的方式,则必须引入一个更高维的框架对算法进行约束与评价。作为一个无法了解详细结构的“黑箱”,AI算法的各个层级难以被规范化。在一个只有输入和输出的模型中,算法的输入数据只能通过筛选来规范,那么我们应该如何评价算法的结果?
一个广为接受的评价体系——机会平等,是罗尔斯所提倡的平等理念在机器学习领域的体现,即在不同群体中,有资格并被判断为有资格的个体所占比例相同。对于算法公平性不同定义的应用广泛体现在了各个去偏算法中,而它们的结果却令人不甚满意:大部分去偏算法只是掩饰了一部分偏见。
那么,针对算法中依然存在的性别偏见,与其追求平等的概率,是否可以采取一个更为激进的角度,要求一种暂时的“不平等”,以对女性这一弱势群体做出补偿?我们认为,想要实现机会公平,一种“补偿正义”是必要的:必须保证每个人发展能力的机会平等。我们期望算法结果中针对以女性为代表的弱势群体的“优待”——这不仅能够为弱势群体提供更多的展示的空间,更可以为未来算法学习提供数据。
偏见的去除探索
AI的背后是一套人造的算法模型,这是无法跳脱出的桎梏。百年前的遴选模型必然不适用于今日,需要AI背后的工程师们为它注入灵魂。而对于性别偏见,我们倡导从女性学与算法学两个方面进行去偏。
性别偏见在家庭、生育、职场等领域频繁出现。算法模型记录了历史状态,因而我们可以更多地关注训练数据、算法模型的选择。同时,我们可以吸纳更多的女性进入AI研究队伍。LinkedIN的分析发现,全球只有22%的AI专业人士是女性。长期以来,以男性为主的创作者难免将偏见带入算法设计,使AI以男性的视角来看待这个世界。
此外,人工智能的“黑箱”模型并非完全不能干预——我们期望从算法的角度介入大数据中的性别偏见。如今许多去偏算法,如几年前流行的“硬去偏”和谷歌最近在翻译中施行的“覆写式去偏”,都是通过修改某个与性别偏见有关的数值,进而干涉算法结果的例子。此外,建立一个完整的偏见审查机制以平衡训练数据中的性别比例和“特征-性别”联系,或许是未来去偏的一大方向。
人工智能在展现其有利于人类的生活一面时,其性别偏见却令人心有戚戚。在追求性别平等的同时,科学技术、大数据背后所引发的社会不公平、不正义现象也应该为人类所警惕。人类性别平等的理想不应该迷失在技术的海洋里。
2023年
《中国妇女报》《中国妇运》
来源/中国妇女报(ID:fnb198410)
作者/彭鲲志黄隽恺
封面/摄图网
责编/田园黄蝶
审签/一帆
监制/志飞
聊天机器人, ChatGPT, OpenAI, 人工智能
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!