如何对抗ChatGPT、算法、生物识别监控等科技力量?AI Now2023年度报告解读全球技术地图2023-05-31 18:07全球技术地图2023-05-31 18:07
ChatGPT与生物

如何对抗ChatGPT、算法、生物识别监控等科技力量?AI Now2023年度报告解读全球技术地图2023-05-31 18:07全球技术地图2023-05-31 18:07

人工智能研究机构AI Now近期发布其《2023年度景观报告:对抗科技力量》(2023 Landscape: Confronting Tech Power)。报告认为,由于具备数据、计算能力和地缘政治优势,科技行业的权力集中成为人工智能政策面临的一大紧迫挑战。为此,围绕ChatGPT、算法问责制、生物识别监控、反垄断等关键要素,AI Now提出了一系列可行的破解之策。 没有大科技就没有人工智能。 在过去的几十年里,少数私人参与者积累了与国家相抗衡的权力和资源,同时开发和宣传人工智能,将其融入关键社会基础设施的建设当中。如今,人工智能遍及求职、医疗、教育、商品流通、交通秩序等各行各业,越来越频繁地影响着社会的发展轨迹。 与此同时,令人担忧的问题开始浮出水面:例如技术并不全都依照规定方式运转,且可能生成高错误率或歧视性的结果。人工智能的不透明性问题意味着我们可能无法完全了解和掌控这项技术。 究其原因,人工智能的核心属性说明了问题:它从根本上依赖于仅由少数大型科技公司拥有和控制的资源。 三个关键维度 大型科技公司在人工智能领域的主导地位体现在三个关键维度: 1、数据优势:那些能够获得最广泛、最深入行为数据的公司,在开发消费级人工智能产品方面占据主导。这反映在科技公司通过收购、合并扩大这种数据优势。科技公司已经积累了巨大的经济实力,这使它们能够将自己作为核心基础设施嵌入健康、消费品、教育、信贷等许多行业。 2、计算能力优势:人工智能从根本上说是一个数据驱动的行业,严重依赖用于训练、调整和部署模型的计算能力。算力的高昂造价和芯片材料的依赖性意味着人工智能需要具备规模效率和高技能技术工人等条件,而只有少数公司才能真正构建起人工智能系统的基础云和计算资源。这意味着尽管“AI初创公司”比比皆是,但它们只能成为大型科技公司“船体上的藤壶”——因为大型科技公司会利用其对必要资源的控制来遏制中小企业发展。 3、地缘政治优势:当前,人工智能系统不仅仅是商业产品,更是国家的战略经济和安全资产,人工智能公司也成为这场地缘政治斗争中的关键杠杆。 为什么是“大科技”? 本报告特别关注针对大型科技公司的政策干预。“大科技”(Big Tech)一词起源于2013年,现在通常用于指代Google、Apple、Facebook、Amazon和Microsoft(缩写为GAFAM),有时还包括Uber或Twitter等公司。 这些大公司积累了强大的网络效应、数据和基础设施资源。其经济实力使这些公司能够在社交媒体、医疗保健、教育和跨媒体等各个领域巩固优势地位。关注大型科技公司有利于对科技政策干预进行把握,理由包括: ① 便于监管机构调查大型科技企业的侵入性数据监视、对用户自主权的干涉、垄断以及歧视等重要问题。 ② 大型科技企业对更广泛的生态系统产生了一系列连锁反应,激励甚至迫使其他公司加入进来。例如,谷歌和Facebook采用行为广告商业模式,推动商业监控成为互联网的商业模式之一。 ③ 整个科技行业和政府对大型科技公司的依赖与日俱增。这些公司的核心业务战略是让自己成为基础设施,使自己成为技术生态系统中许多环节(如云计算、广告、支付系统)不可或缺的环节。如果这些公司在运营过程中出现问题,则容易引发连锁反应。 战略重点 基于上述背景,以下战略优先事项显得尤为重要: 1、责任倒置:在危害发生时,应当让公司证明他们没有造成损害,而不是由公众和监管机构在伤害发生后介入调查、识别和寻找解决方案。 2、打破政策领域之间的孤岛,更好地解决一项政策议程的进展对其他政策议程的影响,避免企业利用政策间的不一致来发挥自己的优势。 3、确定政策方法是否能够有效监管行业行为,并及时地调整战略,防止科技企业逃避政府监管。 4、超越对立法和政策的狭隘关注,接受基础广泛的变革理论。例如,可以利用股东提案让大型科技企业对侵犯人权的行为负责。 行动之窗:AI监管格局 围绕人工智能政策的关键需求,报告从大规模AI模型、反竞争行为、算法问责制、数据最小化、科技和金融资本、生物识别监控、国际数字贸易等方面阐述了未来AI的监管策略。要点包括: 1、削弱科技公司的数据优势。 数据政策就是人工智能政策,为遏制公司的数据优势而采取措施是限制科技公司权力集中的关键。因此,报告建议: ① 制定公司收集或生成消费者数据的明确限制规则(也称为数据最小化规则)。 ② 在人工智能政策的制定过程中将隐私法和竞争法进行有效衔接,避免公司利用这些规则的不适配来为自己谋取利益。 ③ 优化监管指南和执法措施,对企业的数据优势整合行为进行审查,使执法者能够在损害发生之前进行干预,制止滥用数据的行为。 2、改革竞争执法手段,降低科技行业的技术集中度。 ① 遏制大型科技企业利用数据优势兼并其他公司,并在企业从事反竞争行为时对其进行调查和处罚。 ② 推进反垄断法案的进程,为反垄断执法者提供更强大的工具来挑战科技行业特有的滥用行为。 ③ 整合技术政策领域的竞争分析。确定互联网平台公司可能利用隐私措施巩固自身优势的场景,分析云市场的过度集中如何对网络安全产生连锁影响(例如,2017年亚马逊网络服务公司的云服务器发生导流故障,导致多个医疗保健和医院系统瘫痪)。 3、规范ChatGPT、BARD等大型模型。 ① 从正在出台的欧盟人工智能法案中吸取经验,防止“通用人工智能”出现监管例外。警惕大型语言模型(LLM)和其他类似技术带来的系统性风险,倾注更多而不是更少的监管审查。 ② 强制保留技术文档,从而确保这些模型的开发人员对数据和设计选择负责。 ③ 贯彻竞争法,以遏制生成式人工智能的结构依赖性、解决反竞争行为,同时对人工智能系统建立公共责任制,防止对消费者和正常市场竞争造成损害。 4、反对将审计作为人工智能的主要政策监管方法。 ① 越来越多的政策提倡对人工智能系统进行审计。但审计无法应对大型科技公司与公众之间的权力失衡,可能进一步巩固科技行业的内部权力,并且会分散对结构性风险的关注。...
AI降温了?ChatGPT访问量持续下降,概念股走软、融资额缩水华夏时报2023-09-14 12:02华夏时报2023-09-14 12:02
ChatGPT与生物

AI降温了?ChatGPT访问量持续下降,概念股走软、融资额缩水华夏时报2023-09-14 12:02华夏时报2023-09-14 12:02

本报(chinatimes.net.cn)记者赵奕 胡金华 上海报道 ChatGPT的问世,让AI概念火爆全网,但随着时间的流逝,这股热潮似乎开始消退。 最新数据显示,今年8月,ChatGPT网站的全球范围内的桌面和移动端访问量下降了3.2%,而6月和7月均下降了约10%。其中,美国市场ChatGPT的流量自5月开始就不断下降,至8月降幅逐渐趋于平缓。回看2023年前5个月,ChatGPT全球访问量环比增幅分别为131.6%、62.5%、55.8%、12.6%、2.8%,增长幅度明显下降。 不仅是ChatGPT,应用市场上的主流人工智能聊天机器人网站的流量与订阅用户数量均出现了增长停滞,甚至是下降的趋势。AI开始降温了吗? “关于AI热潮的趋势,我认为我们可能正处于AI发展的一个转折点。”观安信息创始人、首席专家张照龙向《华夏时报》记者表示,虽然生成式AI的市场热度相较前段时间大幅降低,但这并不意味着它的价值和潜力减小。相反,我们可能正在迈入一个更成熟、更稳定的发展阶段,而不再是之前的疯狂投资和过度期望。 “这个时期可以被看作是‘跨越鸿沟前的等待’,因为我们需要更多时间来深化AI技术,解决一些基础性问题,以实现更广泛的应用。”张照龙说。 巨头砍掉短期难盈利项目 下降的不止流量,ChatGTP带红人工智能概念后,资本市场上“含AI量”一度成为评判标准,但在AI相关产品技术难度高、研发周期长,企业短期内难以快速盈利,因此,AI在资本市场的竞争力开始减弱。 CB Insights数据显示,今年第二季度,全球AI领域投资总额环比暴减38%。而在二级市场,近期AI巨头的市场表现有所疲软,美股英伟达、微软纷纷创下历史高点回调,同时,美股市场也吹起了一股AI“减持风”。英伟达董事哈维·琼斯和甲骨文公司的创始人拉里·埃里森都选择在高点减持套现。 “AI降温是一个相对问题,如果从发展趋势来说,AI目前正处于发展的初期阶段,对人类社会的变革还处于起步阶段。至少我们今天还在有限的领域应用AI技术,甚至一些应用也都还处于大数据统计处理阶段,距离真正的智能还有一段路要走。”九三学社中央科技委委员、知名科技作家陈根向《华夏时报》记者表示,但从资本市场来看,由于ChatGPT技术的出现,让资本市场对AI有了新的畅想,引发了空前的AI概念热潮。这就导致相关的AI概念公司,出现了提前、过度的估值透支现象。 “其实任何行业的估值一旦被提前、过度透支之后,都会引来估值修正期。”陈根表示,当下的AI概念与其说降温,不如说是在资本市场上进入了估值的修正阶段。但资本市场的估值修正,并不会影响AI的发展趋势,也不会导致AI热的降温,反而会在算力的驱动下引发新一轮的AI竞赛。 值得注意的是,在资本市场“吸金力”下降的同时,科技巨头在砍掉或者缩减短期未能盈利的AI项目。日前,Meta(原Facebook)在全球经济衰退、广告收入降低等因素下,为了降本增效,裁掉了对标谷歌DeepMind AlphaFold、利用人工智能(AI)大模型实现蛋白质预测的生物科学ESMFold项目团队。 此外,谷歌母公司Alphabet旗下自动驾驶车项目Waymo裁员数百人,云游戏Stadia全面收缩;亚马逊接连关停无人配送车Scout、仓库机器人公司Canvas;字节跳动停运旗下社交软件飞聊、时光相册等。 全联并购工会信用管理委员会专家安光勇表示,当AI首次崭露头角时,它被视为神秘和创新,但随着时间的推移,人们开始看到其局限性和问题。这并不意味着AI在退步,而是正在稳步发展和完善。AI技术仍在不断演进,只是其神秘面纱已被揭开,人们开始更现实地看待它。 上海社会科学院经济学博士王滢波也表达了相似的观点,他向《华夏时报》记者表示,AI是一个确定化的趋势,但是所有的增长都不可能是一条直线,这是因为人的预期是不稳定的,波浪式的摆动难以避免,但不会改变智能化的长期趋势。智能化的具体路径和突破点是难以预测的,创新需要足够的冗余度和试错空间。 AIGC安全治理势在必行 随着生成式人工智能(AIGC)的快速发展,其带来的安全治理问题成为业界关注的焦点。与此同时,不法分子也盯上了AIGC的“蛋糕”,相关“AI变脸”“AI拟声”诈骗案件时有发生。 对此,张照龙指出,在内容合规方面,生成式AI可能会产生不合规、虚假或有害内容,这可能损害用户的隐私、道德价值观和法律规定。此外,数据来源引用也是一个挑战,因为AI系统需要确保使用的数据来源是合法、可信和可追溯的,以避免侵权和不当使用数据的问题。 “在此过程中,行业需要制定内容合规标准和数据使用规范,以确保生成式AI的输出符合法规和道德要求,其中监管机构可以在制定和执行这些标准方面发挥重要作用”张照龙表示,生成式AI系统应该提供透明的生成历史和数据来源信息,以便用户和监管机构能够追溯生成内容的来源和过程,这可以有效建立起系统的社会可信度。 张照龙指出,企业可以投资开发自动化的内容筛选和监测工具,以检测和过滤不合规或虚假内容,这可以帮助减少不良影响的传播。而用户则需要了解生成式AI的潜在风险和安全问题——教育用户如何辨别不合规内容以及如何报告问题对于监管部门和行业来说同样非常重要。 “企业和监管机构之间的合作和信息共享对于监测和应对潜在问题至关重要,也可以帮助整个行业及早发现不当使用和侵权行为,有助于建立起行业统一、完善的监测体系。”张照龙说。 在张照龙看来,生成式人工智能的重要性在于其创造性和创新性。观安信息作为一家泛安全企业,我们认识到生成式AI在数据安全、网络安全等领域的突出价值,它可以用于自动化安全策略的生成、威胁检测和网络防御,从而提高安全性。此外,生成式AI还可以用于生成合规性报告和安全分析报表,以及为企业产出更全面、更具针对性的安全解决方案。 今年7月13日,国家七部委联合公布《生成式人工智能服务管理暂行办法》,自2023年8月15日起施行。根据新规指导要求,AI大模型在内的生成式AI产品将面临算法备案、安全评估等两道监管手续,也称“双新评估”,只有在这两个手续都通过后,生成式AI产品才能合法上架。 据国家网信办介绍,近年来,生成式人工智能技术快速发展,为经济社会发展带来新机遇的同时,也产生了传播虚假信息、侵害个人信息权益、数据安全和偏见歧视等问题,如何统筹生成式人工智能发展和安全引起各方关注。出台《办法》,既是促进生成式人工智能健康发展的重要要求,也是防范生成式人工智能服务风险的现实需要。 面对AIGC未来的发展,深度科技研究院院长张孝荣向《华夏时报》记者表示,在技术和产业层面,AIGC需要克服的挑战包括算法的可解释性、数据隐私和安全、数据偏见以及计算资源的需求等,这些问题需要技术研究和创新来解决。而在法律、伦理和社会方面,AIGC可能带来的问题包括隐私保护、就业岗位的变化、道德决策和责任分配等。 “我们需要完善相应的法律法规和伦理准则,同时进行社会讨论和合作,以确保AIGC的发展符合社会价值和伦理原则。”张孝荣如是说。 盘古智库高级研究员江瀚也向《华夏时报》记者表示,虽然AI领域的投资和炒作有所降温,但AI技术在各个领域的应用和发展仍然非常活跃。例如,在医疗、金融、制造等领域,AI技术的应用不断扩展和深化。因此,AI领域的发展仍然是一个长期的过程,需要不断的积累和投入。 在江瀚看来,更加广泛的应用领域,人工智能技术将在更多的领域得到应用和发展,例如医疗、金融、制造、农业等领域。同时,人工智能技术也将与物联网、区块链等其他技术进行融合和创新,推动产业的升级和发展。此外,人工智能技术也将与机器学习、深度学习等其他技术进行融合和创新,推动技术的进步和发展。 责任编辑:徐芸茜 主编:公培佳 举报/反馈
芯片巨头高通回应上海研发部门裁员;ChatGPT 因抄书被告;清华系团队宣布研发出千亿参数“制药版 ChatGPT ” 他辞职了,台湾鸡蛋风波结束了吗?美股集体下跌!国际油价,站稳90美元大关!发生了什么?江苏银行,高增长背后的挑战湖北明确“世界光谷”建设目标:打造万亿产业集群,锚定五个“世界一流”红十月可期?复盘历年国庆前后A股胜率更高的行业方向,核心受益标的梳理长达8年美尚生态造假案处罚落地,广发证券被罚没超千万元,监管持续压实看门人责任发行公司债隐瞒2亿元债务违约信息?平安不动产:举报内容不实,将正式公告下周一起,存量房贷利率开始调整,部分银行上线存量房贷利率调整栏目稳就业“组合拳”显成效 专家:提高经济增速至关重要任兴磊:普惠金融的价值升维在于实现六个价值之和王非:发展普惠金融,小贷公司不可或缺我国系统重要性银行增至20家 南京银行首入围多家银行论道普惠金融 共探数字化转型如何赋能业务多位投资人:已收到碧桂园地产旗下债券“H20碧地3”利息乐视网一审判决出炉:需赔20.40亿 贾跃亭承担连带赔偿责任
ChatGPT与生物

芯片巨头高通回应上海研发部门裁员;ChatGPT 因抄书被告;清华系团队宣布研发出千亿参数“制药版 ChatGPT ” 他辞职了,台湾鸡蛋风波结束了吗?美股集体下跌!国际油价,站稳90美元大关!发生了什么?江苏银行,高增长背后的挑战湖北明确“世界光谷”建设目标:打造万亿产业集群,锚定五个“世界一流”红十月可期?复盘历年国庆前后A股胜率更高的行业方向,核心受益标的梳理长达8年美尚生态造假案处罚落地,广发证券被罚没超千万元,监管持续压实看门人责任发行公司债隐瞒2亿元债务违约信息?平安不动产:举报内容不实,将正式公告下周一起,存量房贷利率开始调整,部分银行上线存量房贷利率调整栏目稳就业“组合拳”显成效 专家:提高经济增速至关重要任兴磊:普惠金融的价值升维在于实现六个价值之和王非:发展普惠金融,小贷公司不可或缺我国系统重要性银行增至20家 南京银行首入围多家银行论道普惠金融 共探数字化转型如何赋能业务多位投资人:已收到碧桂园地产旗下债券“H20碧地3”利息乐视网一审判决出炉:需赔20.40亿 贾跃亭承担连带赔偿责任

1. 芯片巨头高通:鉴于宏观经济和需求环境不确定性,将进一步采取调整措施 近日,有消息称,美国芯片巨头高通在其上海研发部门进行了裁员。9 月 21 日,高通回应《每日经济新闻》记者称,因为宏观经济和需求环境的不确定性,公司预计将进一步采取调整措施,预计主要措施包括裁员,并预计产生大量额外的调整费用,大部分将在 2023 财年第四季度发生。调整措施预计在 2024 财年上半年基本完成,中国调整措施也是计划的一部分。 点评:芯片行业一直处于快速发展和变化中,高通的裁员和调整措施可能反映了行业内部和全球市场的动荡。同时,裁员通常引发社会反响,尤其是在技术和制造业领域。公司需要在处理裁员时采取透明和社会负责的方式,以维护其声誉和避免不利的舆论。 2. ChatGPT 抄书被告!权游作者等 17 位作家起诉 OpenAI 当地时间 9 月 19 日,包括乔纳森 · 弗兰岑、约翰 · 格里森姆、乔治 · RR · 马丁和朱迪 · 皮考特在内的一批 17 位美国著名作家,通过全美作家协会向纽约曼哈顿联邦法院提起集体诉讼,指控 OpenAI 在未经许可的情况下批量复制了原告受版权保护的作品,输入到该公司 ” 大语言模型 ” 中,并对用户类似的文本需求进行响应。 点评:在人工智能领域,特别是自然语言处理领域,正经历快速发展,市场潜力巨大。然而,此案件可能引发更严格的知识产权监管和法规,对该行业的发展带来一定不确定性。 3. 小米集团发布 Redmi Note 13...
芯片巨头高通回应上海研发部门裁员;ChatGPT因抄书被告;清华系团队宣布研发出千亿参数“制药版ChatGPT”
ChatGPT与生物

芯片巨头高通回应上海研发部门裁员;ChatGPT因抄书被告;清华系团队宣布研发出千亿参数“制药版ChatGPT”

1.   芯片巨头高通:鉴于宏观经济和需求环境不确定性,将进一步采取调整措施 近日,有消息称,美国芯片巨头高通在其上海研发部门进行了裁员。9 月 21 日,高通回应《每日经济新闻》记者称,因为宏观经济和需求环境的不确定性,公司预计将进一步采取调整措施,预计主要措施包括裁员,并预计产生大量额外的调整费用,大部分将在 2023 财年第四季度发生。调整措施预计在 2024 财年上半年基本完成,中国调整措施也是计划的一部分。 点评:芯片行业一直处于快速发展和变化中,高通的裁员和调整措施可能反映了行业内部和全球市场的动荡。同时,裁员通常引发社会反响,尤其是在技术和制造业领域。公司需要在处理裁员时采取透明和社会负责的方式,以维护其声誉和避免不利的舆论。 2. ChatGPT 抄书被告!权游作者等 17 位作家起诉 OpenAI 当地时间 9 月 19 日,包括乔纳森 · 弗兰岑、约翰 · 格里森姆、乔治 · RR · 马丁和朱迪 · 皮考特在内的一批 17 位美国著名作家,通过全美作家协会向纽约曼哈顿联邦法院提起集体诉讼,指控 OpenAI 在未经许可的情况下批量复制了原告受版权保护的作品,输入到该公司 ” 大语言模型 ” 中,并对用户类似的文本需求进行响应。 点评:在人工智能领域,特别是自然语言处理领域,正经历快速发展,市场潜力巨大。然而,此案件可能引发更严格的知识产权监管和法规,对该行业的发展带来一定不确定性。 3. 小米集团发布 Redmi Note...
首个千亿生物医药ChatGPT来了
ChatGPT与生物

首个千亿生物医药ChatGPT来了

制药行业的“专家版ChatGPT”,终于来了! 就在这两天,首个生物医药的千亿参数大模型产品ChatDD发布,不仅制药各阶段知识“样样通”,还能和药学专家进行对话,瞬间秒懂一些行业神秘“黑话”。 这和AlphaFold2直接加个Chat功能还不太一样—— 现阶段大模型虽然能在药物发现上做得不错,但要么只涉及单个模态,要么不具备直接对话能力。 ChatDD则兼具多模态和对话双重特点,顺便还能给医药界学生“解个惑”。 做出这个产品背后的水木分子,是今年6月新成立的一家公司。清华大学智能产业研究院院长张亚勤院士指出: ChatDD通过人机协作对话方式有效地将专家知识与大模型知识相联结,开拓了继传统药物研发TMDD、CADD、AIDD之后的第四代药物研发新模式。 所以,它究竟在什么功能上做到“划时代”? 我们和清华AIR教授、水木分子首席科学家聂再清聊了聊,详细了解了ChatDD的来龙去脉。 ChatDD是一个什么样的产品? 先来看看ChatDD能做哪些事儿,具体又能用在哪里。 它的外观和ChatGPT有点像,是一个网页版,同样能通过对话来实现各种功能。 对话能力上,不仅英文总结不错,中文对话也来得,直接hold住“疾病画像”这样的专业黑(术)话(语): 如果有看不懂的分子,可以直接一键上传相关文件,让它来负责解读这种分子的作用: 试试更复杂一点的任务,例如计算亲和力问题,大模型竟然直接“推荐”了一个工具,并快速计算出结果: 此外,也不用担心问答内容超出ChatDD训练数据截止日期,毕竟它还学会了自己联网、或是从数据库中查找答案。 总结来看,ChatDD虽然用法上像ChatGPT,但在生物医药这块是“专业的”。 无论是掌握的多模态(小分子+大分子+文本)医药专业知识量,还是对行业的理解程度、完成任务的能力,ChatDD都要比ChatGPT“更像个学医药的人”。 与同行AI不同的是,ChatDD的“业务范围”,涵盖了制药的前、中、后期三个阶段。 此前的医药行业AI,即使是大模型,往往也只能用于制药的部分阶段,例如前期的药物发现,或是中期的临床前研究。占研发成本大部头的后期临床试验,几乎无人问津。 而ChatDD不仅能参与药物发现、立项、商业智能(BI,Business Inteligence)、临床试验各环节,还能帮助提升成功率。 聂再清介绍表示,ChatDD用于后期临床试验设计,也是大伙儿最期待的功能。 首先,药物在临床试验阶段的通过率,往往并不高。 尤其二期到三期临床,通过率只有34%,三期到四期通过率也不高。但临床试验加上前中期的费用往往又极高,一旦不通过,就是几亿美元成本“打水漂”。 其次,药物通过率不高的原因,(除非药物本身不行)很大程度上是因为没找到适合“对症下药”的患者。 药厂通常会从临床信息数据库中,筛选适合用药的病人。 假设这个药物对数据库中5%的患者有效,那么从这5%的患者中挑选进行临床试验,肯定比剩下95%的患者效率高。 在综合各方面信息做判断这件事上,ChatDD往往比人类更适合筛选出“对症下药”的患者。 聂再清特意举了一个例子,来表明ChatDD的能力: 注意这里未来会是“私有化部署的合作伙伴的单细胞RNA测序数据”,现在因为没有,所以我们用了水木分子收集到的公开数据计算出来的。 这样的ChatDD,背后功能究竟是怎么实现的? 医学院博士后负责数据构建 ChatDD背后的底座,取名ChatDD-FM,参数量达到千亿级别。 这次推出的ChatDD-FM-100B,是全球首个千亿参数多模态生物医药对话大模型,其在C- Eval评测中达到全部医学4项专业第一、也是唯一平均分超过90分的模型。 联想到团队前不久发的BioMedGPT-10B,其自然语言模态的大模型同样基于LLaMA 2架构,这二者是否有什么联系? 聂再清表示,ChatDD-FM和BioMedGPT,在受众和用途上都不太一样,“有点像ChatGPT和GPT-3.5的区别,前者在对话和意图对齐能力上有更大提升”。 BioMedGPT主要用于科研领域,更擅长英文生物医药科研任务,适合直接拿来作为生物医药领域的相关科研任务的基础模型。 ChatDD-FM主要给国内医药行业“打辅助”,侧重中文对话能力,融入了更多专家的对话模式和经验。 技术上,ChatDD-FM相比BioMedGPT,主要增强了三大方面,模态、训练数据和参数量级—— 模态上,增加了蛋白质结构数据;训练上,增加了用于中文、专家对话和调用工具能力的数据;参数量级上,从百亿增加到千亿。 让ChatDD-FM提升“专业度”、说话像“行内人”的秘诀,依旧在于高质量数据上。 这些数据主要分为两部分。 第一部分,是预训练用的医药知识数据,主要目的是让ChatDD-FM提升专业素养,几个月内掌握行业知识。...
用 ChatGPT 来研究动物行为学会有怎样的效果?
ChatGPT与生物

用 ChatGPT 来研究动物行为学会有怎样的效果?

最近的朋友圈,朋友们除了日常讨论防疫,晒自己得新冠 了,还有就是大家在晒与 ChatGPT 的对话截图,这些对话截图引起了我的注意。大家有问一些刁钻问题调戏它的,有让它写诗的,有让它代写论文的,也有让它写代码的。那 ChatGPT 是什么呢?ChatGPT 是美国硅谷的初创公司 OpenAI 最近上线的最新的人工智能聊天机器人。 我一开始以为 ChatGPT 可能又是类似 Siri 这样的聊天助手,撒娇卖萌糊弄娱乐一下而已。但是,在我费了半天劲注册了 OpenAI 的账号并问了几个问题之后,我发现它并不简单! 我首先问了几个与本 BehaviorAtlas 账号相关的动物行为学的问题,看到它的回答之后,我感觉它还是有点水平的。它的很多回答跟我之前的观点是一致的,我怀疑它在后台也抓取了本账号发布的其他推文。它到底是怎样征服我的呢?截几个图看看吧! 一上来我就问了它两个简单的问题: 第一个问题:什么是动物行为学? 第二个问题:如何研究动物行为学? 对于这两个回答,我的评价是,四平八稳。因为这个问题本身简单,抓取一下搜索引擎的结果就行。但这种回答的方式简直就是模板级的论文序列开头(抓取我毕业论文数据不告诉我是吧(╯‵□′)╯︵┻━┻)。 第三个问题:什么是旷场试验? 相比搜索引擎出来的一堆链接(点进去还各种长文),它的回答是很准确且具有概括性的。想要快速了解一些陌生名词,ChatGPT 还是可以信赖的。 接下来我要给它加加强度。既然此篇文章要在 BehaviorAtlas 发,那倒要看看 ChatGPT 跟我们是不是想法一致。 问:现有的动物行为学研究方法有什么缺陷? 我就是看到这个回答之后觉得它还是有点东西的。同样的问题我在 Google 上翻了一两页都没看到类似的回答。这个回答跟我们之前推文的内容太一致了,我甚至想以后公众号的推文都可以偷懒了,就用它来帮我们写了。它真的太懂我们了! 接下来问几个专业点的问题。前面的问题毕竟算是常识问题,但对于动物行为学这种偏小众领域的专业问题,不知道 ChatGPT 会给出怎样的回答。 问:为什么要用三维视觉来记录动物行为? 问:AI能为动物行为学分析提供什么帮助? Perfect! 这两个问题的回答我甚至怀疑它有讨好我们 BehaviorAtlas 的成分。这些道理也许做人工智能和计算机视觉的人都懂,但在计算神经行为学(Computational Neuroethology)这个比较大交叉、相对小众的领域,能把语言组织的这么有逻辑且精准,还是很了不起的。据我了解,这些说法也是近几年在领域内的一些英文综述文章中说的比较多,在中文领域里提的不多。看来 ChatGPT...
ChatGPT会改变生物医疗吗?虎嗅2023-02-10 09:31
ChatGPT与生物

ChatGPT会改变生物医疗吗?虎嗅2023-02-10 09:31

出品丨虎嗅科技组 作者丨苏北佛楼蜜 编辑丨陈伊凡 题图丨视觉中国 2022年12 月,两名计算生物学家Casey Greene和Milton Pividori开创了一项不同寻常的实验:他们请一名非科学家的助手帮助他们改进三篇研究论文。在一份生物学手稿中,助手甚至在引用方程式时发现了一个错误,审稿顺利完成且费用适中,每份文件不到0.50美元。 这名助手并非人类,而是一种名为GPT-3的人工智能算法。 “这将帮助我们提高研究人员的工作效率。” 科学家对此感到震惊。 如今,基于这一通用大模型算法诞生的产品ChatGPT,一经推出,就引发了现象级关注。一时间,全球科技巨头竞相宣布其将会把ChatGPT引入自己的业务。人们或惊叹狂欢,或居安思危,ChatGPT所承载的意义似乎就快超越它本身。在百花齐放的应用场景中,生物技术领域能如何搭上ChatGPT的快车? ChatGPT与生物技术的结合 2020年,人工智能公司OpenAI发布的一款模型,自发布初就被大肆宣传为生成式AI聊天机器人式工具,无论是创作散文、诗歌、计算机代码,还是编辑研究论文,似乎无所不能。 昨日,微软(Microsoft)公司表示,将把ChatGPT整合到搜索引擎Bing和网络浏览器中,谷歌(Google)公司也在今日展示了其名为Bard的人工智能对话系统。这些系统可以根据用户提供的复杂问题,提供全面而综合的回答,小到制定详细的旅行计划,大到分析公司的运营策略。 ChatGPT在生物技术上最有前景的应用似乎是在蛋白质生成和基因测序领域。 总部位于加利福尼亚的生物技术公司Profluent使用类似于ChatGPT的AI模型,创造了新型抗菌蛋白,并且已经证明它们能够在实验室中杀死细菌。 这一模型名称为ProGen,是一种大型语言模型 (LLM),它利用大量文本作为训练数据,开发分析和生成语言的能力——类似于ChatGPT,但 Progen的语言是蛋白质语言。 简单来说,就是使用 AI 和大型语言模型,例如为 ChatGPT 提供支持的语言模型,来学习生物学的基本语言,并设计具有治愈疾病潜力的新蛋白质。 目前,ProGen生成了一百万种不同的人工序列,研究人员从中挑选了 100种在实验室中合成,其中66种产生了类似于鸡蛋清溶菌酶的化学反应,用作阳性对照。 该团队随后选择了五种新型抗菌蛋白,并测试了它们对大肠杆菌的抵抗力。其中两种新蛋白质能够杀死细菌。 同时,X射线成像显示,尽管这些抗菌蛋白的氨基酸序列与任何已知的天然蛋白相差超过30%,但它们仍然折叠成与”天然表亲们”几乎相同的形状。 这项研究可能意味着,未来我们能通过与AI合作,创造本不属于自然界的蛋白质,并将这些蛋白质赋予不同的功能,人类成为了微观世界里的上帝。 攻克蛋白质后,ChatGPT似乎又开始朝着基因高歌猛进。 科技公司Nvidia在今年的JP摩根医疗健康大会称,随着新一代基因组测序速度的不断加快和成本的不断降低,目前我们测序基因组DNA的能力已经超越了分析DNA序列并从中获取洞见的能力。而更快速有效地处理海量的基因组序列信息离不开人工智能。 大型语言模型通过可以分析人类语言一样分析DNA序列,以此加快基因组的拼接、基因突变的发现,并且用人类对话的方式将发现表述给研究人员。 比如,整合ChatGPT的基因测序分析系统可能在处理患者的基因组测序数据后给出——“这名患者的某基因上的突变可能导致罕见遗传病A”的结论,它似乎代替了医生。 ChatGPT是万能的吗? 一切的发现和应用似乎都朝着好的方向前进。但面对似乎全能的工具,随之而来的是人类的反思和“批判”。它是万能的吗? 部分看客也跟着给出了自己的答案:不是。 首先,我们开始思考翻译和替代的准确率? 比如,目前大型语言系统的缺陷在于“提供信息的真实度有待提高”。由于ChatGPT基于对已有语言数据的学习提供回答,它的回答也受到数据库中不真实、有偏见、或者过时知识的影响。 这可能意味着对于专业性强的话题,如果大型语言系统没有经过足够专业数据的训练,很可能提供错误的回答。对于不了解专业知识的普通人来说,无法侦辨虚实。 此外,由于海量的数据训练是保证ChatGPT的基础,因此在数据的输入过程中,可能存在历史偏见等遗留问题,种族、性别、文化、年龄歧视等不良因素都会隐匿在其中。想要人工剔除是十分困难的事情,如何防止ChatGPT根据这些数据输出有害言论是需要解决的另一个挑战。 在Nature上发表的最新评论中,有研究人员指出,建立使用ChatGPT的规范和法规至关重要,才能确保这一技术被正当、透明、公平的使用。 开发者比评论人更清楚这其中隐藏的问题。去年9月,Google子公司DeepMind发表了一篇关于名为Sparrow的“对话代理”的论文4,该公司的首席执行官兼联合创始人 Demis Hassabis 表示,该论文将在今年以私人测试版的形式发布。谷歌的目标是开发甄别包括引用消息来源的能力在内的功能。...
ChatGPT,能给“AI+医疗”加把火吗?
ChatGPT与生物

ChatGPT,能给“AI+医疗”加把火吗?

在2023年过去的八个月里,生成式AI的繁荣毋庸置疑。 各大巨头如百度、阿里云、科大讯飞、京东健康纷纷下场,声势浩大地推出自己的大模型。不甘让一家独大,一场刺刀见红的“百模大战”一触即发。很快,这场风也迅速刮向了严肃、强监管的医疗领域。 AI制药命运的齿轮再次转动,7月12日,站在风口之巅的英伟达向生物科技公司Recursion投资5000万美元,以加速人工智能药物发现领域的突破性基础模型。这一动作被业内解读为赚麻了的英伟达,对AI制药的进一步押注。 “皮衣教主”黄仁勋更是高调表态:“生成式AI是发现新药物和治疗方法的革命性工具。”在外界看来,万亿美元市值的英伟达,一举一动都值得深究,现阶段的AI制药或许仍处于价值洼地。 资本再次听到了搏命狂奔的鼓声,8月21日,源自斯坦福大学的AI制药公司Genesis Therapeutics宣布完成2亿美元的超额认购B轮融资。国内药物模拟研发平台“深势科技”完成新一轮超7亿元人民币融资,英矽智能也在冲刺“AI制药第一股”…… 医疗问诊、辅助诊断、医疗数字化营销、中医等企业均卷入其中,争一个上桌机会,一片沸腾。 盛景之下,北京市卫生健康委日前发文,明确将加强互联网诊疗活动监管,严禁使用人工智能等自动生成处方;人工智能软件等不得冒用、替代医师本人提供诊疗服务。 狂热与迷茫交织,人们不免好奇:ChatGPT,能给“AI+医疗”加把火吗?它能应用于哪些医疗健康细分场景?实现何种程度的赋能? AI的倚天剑,难破药物研发阵 药物研发,有个闻风丧胆的双十定律:即研发一款新药,需要至少十年时间,十亿美金。AI制药的出现,让人们看到一键生成新分子的可能,但价值验证、商业焦虑成为相关企业们萦绕不去的拷问。 当AI进化成通用模型的ChatGPT,这把被寄予厚望的倚天剑,能否真正解决药物研发的成本问题和失败率?答案可能并不乐观。 在大多数人的设想中,人工智能技术可以通过自然语言处理和机器学习等算法,帮助研发者们迅速筛选有潜力的药物分子。同时,借助大量药物研发数据,不仅快速找到下一个“十亿美元分子”,还可以预测药物的副作用和药物代谢。 券商研报曾勾勒出一幅令人心神向往的图景:通过机器学习、深度学习等方式赋能药物靶点发现、化合物筛选等环节,能够使新药研发的成功率从12%提高到14%,每年为全球节约化合物筛选和临床试验费用约550亿美元。 AI的技术变革如一把突如其来的野火,试图烧掉生物医药研发双十困境的“篱笆墙”。2021年,AI制药企业乘风而起,在全球资本市场上演了逐富故事。270多家从事AI药物研发的公司如雨后春笋般成立,涵盖了靶点发现到上市后的药品追踪。人们透过一笔笔真金白银的融资、交易与合作,看到了一个被彻底激活的AI制药市场。 不过,价值验证也让AI制药曾经卷起的泡沫骤然破裂。2022年,全球首款由人工智能设计的分子DSP-1181被日本住友制药停止开发,原因为临床I期的研究并未达到预期标准。此前Exscientia曾高调宣称,整个项目从提出概念到确定分子,只用了不到一年,而行业平均是4.5年。 英国AI制药上市公司BenevolentAI亦因为BEN-2293的IIa期临床试验折戟,宣布裁员近180人,近乎公司的一半。不少AI制药的管线,步入临床阶段之后悄然消失。一众AI制药市值自由落体,不少AI+新药研发的公司现金几近枯竭,股价不足1美元。AI制药管线的新颖性,亦被行业所质疑。 当创新药低垂果实被摘尽,ChatGPT能否成为打破新药研发反摩尔定律的利器?“其实我们现在缺的可能不是算力,而是我们并没有很多高质量的有效数据。”晶泰科技首席执行官马健在第四届全球生物医药技术大会暨展览会上如此指出。 事实上,算力、算法、数据三个重要因素构成了人工智能机器学习。东吴证券研报指出,数据决定了训练模型的深度,算法决定了效率和产出,算力决定了AI可实现的维度。GPT虽然足够颠覆,但更多聚焦于算力资源的增强,而未能解决掣肘新药最大的困难——高质量研发数据的鸿沟。 创新药物研发数据,对于药企而言,极为敏感与珍贵,一般不愿共享,而这也造成了高质量数据难得的境况。此外,学术文献、研究挖掘也面临着负样本缺乏等隐藏雷点。 至少在当下,尽管有ChatGPT加持,AI制药扮演更多还是辅助角色,期待未来有更多突破。 多模态的屠龙刀,变革辅助诊断 试想一个场景,当你需要了解某种药物的功能及使用方法,数字人在大屏幕前细心叮嘱注意事项,无须再去拿着说明书一字一句仔细看。 而这就是GPT此类大模型的魅力,医渡云首席数据科学家彭滔此前曾观点鲜明地表示,几乎所有的医疗产品/路径,都可以用大语言模型去重新梳理一遍,去真正发挥它的价值。 尽管投资热点目前仍集中于大模型、数据库,而在GPT向上生长的过程中,报告解读、病历质控、辅助诊断、知识问答等方面或将被重塑。 7月12日,谷歌公司的医疗问诊AI Med-PalM的研究团队在《自然》杂志发布了研究成果,一组临床医生对谷歌和DeepMind团队的医疗大模型Med-PaLM回答的评分高达92.6%,与现实中人类临床医生的水平(92.9%)相当。 随后,《Towards Generalist Biomedical AI》论文更是展现了大型多模态生成模型多任务模式的潜力。Google Research和Google DeepMind的研究团队发现,Med-PaLM M已经可以执行医学图像分类、医学问答、视觉问答、放射学报告生成和总结、基因组变异调用等14种不同的生物医学任务。 而在246份真实胸部X光片中,临床医生表示,在高达40.50%的病例中,Med-PaLM M生成的报告都要比专业放射科医生的更受采纳。 “如今,我们应转向一个由三方组成的结构,将类似GPT-4的AI实体纳入其中,作为这个三角关系的第三支柱。”《超越想象的GPT医疗》书中指出,传统医学通常指的是医生与患者之间的神圣纽带——一对双向关系,GPT可以作为第三方,类似于医生的辅助角色。 全新的医疗三方模式下,医生与GPT共同构成了诊疗主体。当患者接受检查时,AI和医生共同参与了诊疗,从而确保诊疗的准确度。无论GPT在医疗领域扮演何种角色,始终需要让人类参与审查其生成的所有输出,最大程度规避技术存在的风险与不足。 日前,北京市卫生健康委发布《北京市互联网诊疗监管实施办法(试行)》,医疗机构开展互联网诊疗活动要加强药品管理,严禁使用人工智能等自动生成处方,严禁在处方开具前向患者提供药品。此举意在规范互联网诊疗活动,亦是尽可能消弭人工智能的风险性。 京东健康、百度健康、深睿医疗、医联、东软、左手医生等公司纷纷推出了自己的医疗垂类大模型,应用场景多聚焦于辅助问诊、辅助诊断、健康咨询、医学智慧影像等。 “医疗科技企业与基础大模型企业积极合作,AI大模型医疗健康生态正在逐步建立。行业推进的速度很快,留给产业观察、学习、思考的时间不多,有更多资源更强生态能力的企业、机构、政府可以更大力度的参与。”亿欧董事总经理、亿欧大健康总裁高昂一针见血指出。 尽管ChatGPT的表现令人欣喜,但新功能往往与新风险如期而至,GPT会倾向于编造信息,这有时会成为“幻觉”。大语言模型的信息需要定期更新,以保持准确性与时效性,不然极易误导使用者。 颠覆病历书写 相较于在药物研发领域的“关山难越”,病历书写或是chatGPT能实现颠覆的细分场景之一。 “对于许多专注于开发自动化临床文书产品的公司来说,GPT-4看起来将成为一项颠覆性的技术。”《超越想象的GPT医疗》曾如此总结。 当作者们在2023年初写下这段文字时,也许已经预见到接下来的日子里,GPT—4在应对医护日常工作中最烦琐、负担最重部分的潜力。...
从人类生存意义看ChatGPT的影响
ChatGPT与生物

从人类生存意义看ChatGPT的影响

最近ChatGPT在国内火了,网上很多关于它的分享,认真了解和细读了部分亲测者的文章,突然觉得从人类生存意义上去看ChatGPT的影响也是一个有趣的视角。 本文涉及内容比较宏观,难免信马由缰,且看且容谅。 01什么是ChatGPT? ChatGPT,美国OpenAI研发的聊天机器人程序,于2022年11月30日发布。ChatGPT是人工智能技术驱动的自然语言处理工具,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文等任务。 以上为百度百科内容。 ChatGPT上市不久月活跃用户量就达到了1亿人以上,是世界上突破月活1亿人用时最短的软件,这个世界纪录从侧面佐证了ChatGPT十分好用,而且取得了某些突破性进展,使其明显优于以往的类似程序。 从大家分享的内容来看,ChatGPT至少具备搜索引擎、智能聊天、内容生产等方面的综合功能。 搜索引擎和智能聊天其实不算很新的东西,更能引起大家关注的是其“内容生产”功能,其中一条热搜就是美国一大学生使用ChatGPT写了被教授认为是全班最好的论文。 以往一般认为AI只是擅长提取、整合、分析数据,在创作创造方面还存在明显短板,但ChatGPT似乎取得了突破性成效,可能具备划时代性。 有的人认为ChatGPT创作的内容只是根据海量信息加以整理加工罢了,算不上真正的创作。 但另一些人对ChatGPT创作内容进行原创性检测,证明其创作内容具备较强原创性。 这种原创性的创作不同于传统AI,属于“生成式AI”,意味着人工智能已经不再局限于分析已经存在的东西。 同时,ChatGPT在学习性和成长性上也很出色,1亿以上人群对其的海量训练,促使其不断提升进步,例如某些开放性问题,隔一段时间再问,ChatGPT的答案变得更加圆滑人性化。 人们总是倾向于思考与自己切身利益相关的问题,例如具备内容生产功能的ChatGPT会不会替代自己的职位。 生产领域的每一次重大革命都会使一些人失去岗位,从远的说,蒸汽机的发明及广泛应用使工厂制最终代替了手工工场,用机器代替了手工劳动,导致一大批手工劳动者下岗。内燃机的创新和使用进一步推动机械化、自动化进程,使人力车夫、马车夫甚至骑兵等职业纷纷绝迹。 从近的说,随着人工智能技术、机器人技术的发展,部分岗位如仓储分拣员、高速路收费员等被逐步代替,目前虽未完全机器化,但已带来不少裁员现象。 长远来看,甚至一些目前十分稳固的职业也可能被取代,例如部分门诊医生,现在但凡就诊都先照影像,如B超、CT、心电图等,或者验血验尿获取某些数据,如血常规、尿常规。这些高度标准化的基础性检测已经由机器来完成,如果人工智能能够进一步发展,把人的影像或液体数据的信息与病情诊断及救治相耦合连接,形成全链条的智能化接诊闭环,部分医生也可能面临下岗风险。 但也要看到,人工智能化既可能使某些人下岗,也可能使某些人如虎添翼,爆发出更强的生产力,总体上是推动了人类整体生产力优化进化。 生产过程本就是人与人的分工合作过程,例如制作一个宣传视频,需要负责整体运作的导演A君,负责户外采景的B君,负责撰写讲解文案的C君,负责视频后期剪辑排版的D君,负责配音的E君(不太熟悉视频制作流程,假设只有这5人),那么这个宣传视频的生产过程就是这5人的分工合作过程。 未来随着科技进一步发展,可能C君、D君、E君的岗位分工都被人工智能、机器人所取代,那么这个宣传视频A君和B君两个人就能搞掂,人工智能、机器人对A君、B君而言反而是一个很好的辅助工具。 再如,就ChatGPT“内容生产”功能而言,对公文写作者便是一种很好的辅助工具。 因为公文种类很多,每种公文有其独特的内容形式,像调研报告的内容形式便和工作方案的不同,工作方案的又和会议通知的不同。 所以不少公文写作人员很喜欢建立自己的公文库,里面收集着各类正式公文或应用性公文的未印发Word版。当需要撰写某类公文时,便从库里提取相关模板,大体的行文框架便出来了。 毕竟,有时特定框架很重要,不宜创新,但又不想花费太多时间精力在这上面,而公文库中过去类似的公文可以帮助公文写作人员节省不少时间精力以便聚焦重点内容创作。 而ChatGPT可以帮助公文写作者快速生成适合的内容形式或行文框架,发挥不错的辅助价值。 例如网上有人通过ChatGPT生成了一份招商报告的行文框架,看起来挺有价值。 图片来源:茶狐看世界 以ChatGPT为代表的“生成式AI”带来的将是生产力的提高,这与内卷是截然不同的,所以整体而言其影响是积极的,但局部而言可能会阵痛——导致部分人失业下岗。 为什么整体影响是积极的?下文会从人类存在意义的角度展开阐述。 为什么不同于内卷?因为内卷是提高内部个人竞争力但不提高整体生产力的不良现象,常被人吐槽,例如广被诟病的酒桌文化,通过喝酒获得某种服从性,满足某种虚荣性,逐渐被扭曲为脱离实践效果、生产力优劣而以个人喜好去处理双方关系、决定工作走向。(有机会再专门聊,在此不赘述) 02人类存在的意义和社会财富 人类存在的一个重要意义是延续种群,那些没有延续种群冲动和欲望的物种可能已经消失在历史长河,因此现存的所有生物都有延续种群的本能。 当种群数量少、生产力低下、生活品质不高时,人类遵循动物本能,追求数量上的繁衍。 当种群数量较大、生产力较高、生活品质较好时,人类遵循社会本能,追求更高质量的生活。类似于马斯洛需求层次,生产力水平上来,文明程度更高时,人类思考和追求的东西会更多更繁杂。 但无论是数量上的增长还是更高质量地生活,都离不开社会财富的增长。 什么是社会财富?生产出来的一斤稻米,一辆汽车等有形产品,提供的一次法律咨询服务,一小时家政服务等无形产品都属于社会财富。 社会财富的种类成千上万,如何统计衡量?只能把它们都换算成货币,赋予统一的标准尺度。但毕竟是经过了一层媒介,货币也不能完全代表社会财富。 假设某国的社会财富是1万亿元(本国法币),在所有产品总数不变的前提下,该国滥发货币,导致物价涨了一倍,进而使其社会财富变成2万亿元,那能否代表该国的社会财富也翻了一倍?答案是不能,其社会财富并没有增加。其中细节本文不作细究,反正在物价稳定的情况下,我们可以简单地把GDP认为是社会财富。 创造GDP的形式主要是第一产业(农业)、第二产业(工业)和第三产业(服务业等)。 从马斯洛需求理论可知,一个人、一个群体、一个民族只有解决温饱问题,才有动力去追求其他价值。 例如,现在还在贫困线、温饱线挣扎的那部分非洲人民是否有兴趣思考ChatGPT将给人类带来什么影响。又或者解放前旧中国飘零在国殇战乱中的老百姓是否有心思考虑人类发展趋势。 而所谓温饱,其实就是第一产业和第二产业所支撑的,温指穿衣温暖,由工业提供相应产品;饱指吃得饱肚,由农业提供相应产品。 虽然世界各国都在强调第三产业的重要性,并且第三产业占据GDP的比重也在不断增加,但第三产业是建立在第一、二产业基石上的摩天大厦。 ①当第一、二产业越雄厚,且处于非垄断状态时,第三产业便越重要、越具备高端价值。只有大家都不愁吃、不愁穿的情况下,才会更重视劳动力价值,特别是提升个人生活品质的服务性享受性这类无形产品的价值。 ②当第一、二产业尤其是第一产业供给不足时,再漂亮的大厦也会坍塌,试想一下,如果粮食不足以满足所有人的温饱,那些挣扎在温饱线上的人是否会吝啬自己的劳动力吗? 现在好一点的家政服务按每小时几十元来收费,人工贵是经济社会发展水平进步的一种体现,只有大家不愁温饱的时候才会出现。...
研究发现:ChatGPT隐藏受版权保护训练数据
ChatGPT与生物

研究发现:ChatGPT隐藏受版权保护训练数据

文章概要: 1. 据新研究,ChatGPT试图隐瞒训练过程中使用了受版权保护材料。 2. 其表现为,当用户试图提取下一个句子时,ChatGPT会扰乱输出。 3. 研究人员认为ChatGPT检测提示意图并采取措施,但仍使用受版权保护材料。 站长之家8月24日 消息:据BusinessInsider报道,最近,ByteDance的AI科学家团队在论文中公布了一项新研究,内容是ChatGPT试图隐瞒自己是通过大量受版权保护的材料进行训练的。 研究人员发现,当用户尝试通过提示提取下一句时,ChatGPT会故意扰乱输出,而此前版本不存在这样的行为。 研究人员推测,ChatGPT的开发者实现了一种机制,可以检测提示是否意图提取版权内容。但是即使采取了这些措施,研究还是发现ChatGPT会用受版权保护的材料回应某些提示。 事实上,不仅ChatGPT,其他大语言模型如Meta的OPT-1.3B和谷歌的FLAN-T5也被发现会用受版权保护的文本回应提示。 研究人员分析,这是因为这些大语言模型都是通过训练大量文本数据获得能力的,包括书籍、文章和网站中的文字。这些训练数据通常包含受版权保护的内容,大语言模型可能会无意中复制这些内容。