文章主题:人工智能, 大规模语言模型, AI伦理风险
🎉【震撼科技盛宴】🌟2018年9月14日,第十届天翼智能生态盛会在璀璨的灯光下拉开帷幕,一场科技与创新的狂欢在此上演!💡现场,一款高约2米的炫酷机器人惊艳亮相,它的存在仿佛为会场增添了几分未来感。👩💼一位勇敢的女士,毫不犹豫地走向它,与这个高科技代表握手互动,瞬间点亮了全场的热情火花!📸图中,这位充满勇气的女性与智能机器人的握手画面定格,成为那天独特而难忘的一瞬。这不仅是技术进步的见证,也是人机交互新可能的生动展现。🌱请注意,原始内容中的具体信息已巧妙融入到改写后的描述中,以保持其核心价值,并利于搜索引擎优化。同时,我们保留了活动的氛围和科技元素,让读者能更好地理解和期待这样的创新盛事。
🌟生成式AI与大模型引领潮流🔥,ChatGPT等创新技术犹如科技盛宴中的闪电,让人目不暇接,瞬间颠覆认知。🚀面对这些日新月异的进步,我们既惊叹又困惑,仿佛站在时代的十字路口,不知是赞叹科技进步的脚步,还是担忧其可能带来的冲击。🤔未来,智能如何定义,人类角色又将如何演变?这些都是亟待解答的议题。🌍
🎉🔥在GPT4掀起智能风暴两周后,一篇关于其开启通用AI新篇章的研究热度持续飙升!然而,这场技术盛宴引发了众多重量级专家的关注,包括图灵奖得主约书亚·本吉奥、计算机科学巨擘斯图尔特·罗素和电动汽车先驱马斯克等。他们纷纷呼吁,鉴于人工智能领域的迅速膨胀,亟需冷静思考,暂停巨型AI研发的脚步,以防止潜在的失控风险。🌍🔍
🌟🚀 拯救未来!🚀💡 一群顶尖宇宙学家,如泰格马克教授领衔的未来生命研究所,紧急呼吁全球暂停研发超越GPT4的AI巨擘!🔍🔥 科学共识:这些高度智能的AI潜在威胁,已引起顶级AI实验室的高度关注和警示。🌍🛡️ 智能革命面前,我们必须谨慎前行,以免引发无法逆转的社会与伦理挑战。🌱👥原文中的风险隐患,如今已成为全球科技界的共识。我们需要审慎评估,确保技术的发展既能推动创新,又不会对人类社会造成潜在的破坏。👩💻👨🔬 为了我们的未来,让我们一起守护这个平衡!🌍🌈
🌟基于21世纪科技与未来趋势的研究,我们认识到科技进步已带来潜在的生存威胁,这促使我们既要充分利用科技推动社会发展,又需时刻防范其可能产生的无法逆转的风险。🚀
🌟🚀随着深度学习引领的人工智能浪潮席卷而来,一个专注于探索科技如何赋能生活的前沿机构——未来生命研究所(FLI),紧随其步伐,立下誓言:“驾驭创新,以智慧规避巨浪,致力于将颠覆性技术转化为日常福祉。”🌈
相称性治理思想没有得到认真对待
实际上,2017年初,在阿西洛马召开的“有益人工智能”会议上,2000余位业界人士和学者就曾联合签署过包括23条倡议的Asilomar AI 原则。
其指导思想是,面对超级智能及其对地球生命史可能带来的深刻变化,要构建对人类有益的智能而不是无序的智能,必须在规划和管理上投入与这种超强的创新相对应的资源和关注力,对于人工智能可能造成的灾难性和生存风险,必须付出与其可能造成的影响相称的努力。
自那时以来,尽管世界上相继出台了一百多部人工智能原则和文件,但现在看来,这些原则及其背后的相称性治理的思想并没有得到认真对待。
根据英国《金融时报》的最新报道,尽管生成式和对话式人工智能的兴起,使得人工智能研究与应用的伦理风险日益凸显,微软、亚马逊和谷歌等大型科技公司近来却在裁减人工智能伦理方面的人员,难免加剧人们对相关创新和应用的安全风险的担忧。
或许是了解人类即便意识到巨大的生存风险依然言行不一的痼疾,这封公开信采用了两个策略。
一是诉诸人类未来的命运,对人工智能可能胜过人类智能的历史临界点的人类命运,进行了追问。公开信甚至用了扪心自问这种情绪化表述:我们是否应该让机器用宣传和谎言充斥我们的信息渠道?我们应该自动化所有的工作,包括令人满意的工作吗?我们是否应该发展最终可能超越并取代我们的非人类思维?我们应该冒险失去对我们文明的控制吗?
二是直指OpenAI关于通用人工智能的声明中的高调表态,指出当下恰是落实其中“在开始训练未来系统之前进行独立审查很重要”的主张的关键时刻。
而这两个策略背后的思想是,对于接近人类智能的人工智能的开发可能导致的人类生存风险,不能简单地从风险收益比的维度去权衡,相应的政策和监管不能完全依靠科技公司的自律和科技领袖的认知。
由此,公开信不仅明确呼吁所有AI实验室立即以公开和可检验的方式,暂停至少6个月训练比 GPT-4 更强大的AI系统;而且强调要在独立的外部专家的参与监督以及政府的必要监管下,通过这次必要的暂停,共同开发和实施一套用于高级人工智能的共享安全协议,以使强大的人工智能系统更加准确、安全、可解释、透明、稳健、一致,更值得信赖,对人类更为忠诚。
据此,公开信还进一步提出了构建专门和有力的人工智能监管机构和强大的审计和认证生态系统等具体建议。
慢科学策略并不是简单叫停
从科技发展史的维度来看,公开信所提出的暂停策略并非创举,至少可以追溯至1975年。彼时在最为著名的一次阿西洛马会议上,保罗·伯格等生命科学家鉴于基因研究的未知风险,主动提出暂停重组DNA。
从那时到现在的差不多半个世纪,暂停有风险科学研究背后的预防性思想,越来越成为突破性科技创新所奉行的重要原则。
值得指出的是,从预防性原则出发提出暂停并不是简单叫停,而是通过科技风险的认知和研判,探寻我们可以接受的研究和创新。
应该是基于这一寻求更加稳健的创新的思路,公开信指出,只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,才应该开发强大的人工智能系统。
展望深度科技化未来,科技将越来越深地走进生命和智能等关乎人类存在的领域,这也就意味着人的价值、伦理等问题必须被视为研究和创新的内在环节,必须在关注度和资源上给予相应的投入,科技才可能向着合乎人类利益的方向演进。
只有真正认识到这一点并付诸实践,才可能改变人工智能等深度科技化前沿中科技的力量和控制科技的力量之间的不平衡。
而这封公开信给我们的最大启示是,在扭转这种不相称之前,我们有必要通过暂停这种慢科学策略,使科技的力量在我们可以掌控的节奏下有序绽放。
唯其如此,我们才能够避免听任巨型科技系统演变成盲目的力量,甚至因其不受制约而对人类社会和文明发展带来颠覆性的灾难。
人类文明不能失控,的确是时候为巨型AI实验按下暂停键了。
从这个意义上讲,“让我们享受一个漫长的AI夏天,而不是毫无准备地陷入秋天”,并非一般的诗句,而是人类迈向科技未来需要反复唱颂的史诗。
撰稿/段伟文(中国社科院科学技术和社会研究中心)
编辑/徐秋颖
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!