ChatGPT与量子算力:交叉领域的未来潜力探索?
AI与化学

ChatGPT与量子算力:交叉领域的未来潜力探索?

当前,ChatGPT已成为 自然语言生成、语言翻译、知识问答等 多个领域应用的重要技术 这类大规模机器学习模型训练数据庞大 涉及大量的计算资源和存储资源 对算力要求也就更高 想要解决这些挑战 则需要引入更强算力如量子算力 那么 拥有强大算力的量子计算机 将如何赋能以ChatGPT为代表的人工智能系统? 在两者交叉的研究领域 未来又有哪些有潜力的方向? 2023年 5月18日下午 本源量子副总裁兼软件中心总监 安徽省量子计算工程研究中心副主任窦猛汉 受邀参加YEF2023青年精英大会技术论坛 将通过《量子计算与量子机器学习》报告 探秘量子计算+ChatGPT 敬请期待… 图片来源:中国计算机学会
对话ChatGPT,聊聊养老那些事儿
AI与化学

对话ChatGPT,聊聊养老那些事儿

今年以来,ChatGPT靠“花式整活”火出圈,吟诗作赋、小说论文、高数代码等样样精通,又被称为“全能网友”。 那么,在如今很多人都比较焦虑的“养老领域”,ChatGPT能提供有价值的回答吗? 我们与ChatGPT展开了一场关于养老的对话,想知道ChatGPT与养老能碰撞出什么样的化学反应吗?马上看看! Q1,养老能搭上AI的“顺风车”吗? 人工智能的技术迭代,将如何赋能养老行业?ChatGPT给出了一些可能落地的方向:智能护理、健康管理、社交互动等等,呵护老年人的身心健康。这一答案虽然略显宽泛,但基本方向与专业机构给出的方向是一致的。 根据中商产业研究院发布的报告,目前,智慧养老服务领域主要包括慢性病管理、居家健康养老、个性化健康管理、互联网健康咨询、生活照护以及信息化养老服务这六大服务领域。随着物联网、人工智能等领域的蓬勃发展,同时人口老龄化速度不断加快,该机构预测,到2023年中国智慧养老市场规模将达10.5万亿元。(资料参考:中商产业研究院《2022年中国智慧养老市场前景及投资研究预测报告》,2022.11.17) 具体来看,AI如何更好的服务养老生活呢?比如,老年人跌倒,一直是令人担忧且代价高昂的问题,而人工智能或许是推动智慧养老的关键性步骤。总部位于旧金山的一家科技公司,就开发了这样一款系统:当监测到老人跌倒时,视频会自动记录,并提醒护理人员,通过视频,护理人员可以知道老年人跌倒是否严重,并据此采取相应的后续措施。 伴随着时代的发展,如今很多人已经开始思考,如何将科技产品纳入未来养老规划中。据媒体报道,35岁马莉的母亲已经60岁,母亲做完房颤手术后,心率和血压需要24小时进行监测,马莉因此会考虑“戴健康手环还是心电监护仪更方便”。此后母亲可能很长一段时间会站不稳,因此需要配备带滚轮的步行器。马莉表示,无论是父母还是自己的养老,“都应该与时俱进,关注一些科技产品。”(澎湃新闻,2023.3.31) 这些案例都说明了科技给养老带来的影响,这也让部分人逐渐放下一些养老焦虑。人工智能在养老领域的运用是大势所趋,一能节约人力资源,二能大幅提高运营效率,缓解老龄化问题,三能够让老年人充分享受科技带来的便捷和舒适。但与此同时也应该看到,科技助老产品价格不菲,想要得到更好的产品和服务,没有一定的经济实力也很难实现。 Q2,按时缴纳社保,养老没问题? 很多人的认知中,为养老所做的最好准备就是“缴纳社保”。那么,是不是只要按时交社保,养老就没问题了呢?ChatGPT的回答直接且清晰:按时交社保确实是保障养老的一种方式,但并不能完全保证养老就没有问题。一方面,要关注社保缴纳的金额和时长;另一方面,即使交满社保,养老金也可能无法满足退休后的生活所需。 为了进一步弄清楚这个问题,我们先来看看:基本养老保险,能够提供多大的保障?我国的基本养老保险由基础养老金和个人账户两部分共同构成,计算方式比较复杂,总体上受以下几个因素的影响:缴费基数、缴费年限、退休所在地职工的月平均工资、退休年龄。 根据人社部数据,2021年,企业退休人员月人均养老金2987元。假设自己是2021年的退休老人,每月3000元左右、一年3.6万元左右的养老费用,能够负担起什么样的生活?考虑到2021年的物价水平,很明显,只能保障“吃饱穿暖”。此外,3000元是平均水平,如果考虑到不同城市/地区的差距,相当一部分人的养老金是低于这个水平的。 再来看看具体的“养老账单”:以二线城市为例,日常餐饮每月2000元、住房水电物业费等每月1000元、通讯交通娱乐购物等每月1500元、年度体检医疗每年3000元、旅游及其他每年3000元,这样的花销水平并不夸张,以此计算,每年至少需要6万元左右。即便不考虑“人口老龄化”可能带来的未来基本养老金的压力,在当前,对于憧憬高质量养老生活的人来说,每年3.6万元的基本养老金可能远远不够。 基本养老保险,顾名思义,保的就是基本生活,虽然每年都有上调,但也很难满足大部分人的期待,该怎么办呢?值得关注的是,ChatGPT还提供了一条为养老生活积累财富的路径:个人储蓄和投资理财,通过提前进行养老规划、合理投资理财,有望增加退休后的收入来源。 Q3,如何选择合适的养老投资品? 提到养老投资理财,首先要关注的是:如何选择合适的养老投资品?ChatGPT的回答遵循了“知己知彼”的原则。一方面,要“知己”,了解资金的投资期限和自己的风险承受力;另一方面,要“知彼”,了解产品的投资成本、产品信誉和稳定性、投资策略等。 近年来,养老目标基金逐渐成为备受青睐的养老投资品之一,从“知彼”的角度看,是有充分理由的。公募基金拥有专业的投研体系,且产品种类更丰富,更有利于进行多元化的养老配置。基于安全性和专业性的优势,公募基金成为养老投资主力军之一,“养老目标基金”则成为官方指定的养老金融产品。 ChatGPT提到要关注“产品信誉和稳定性”,其实就是要关注投资团队的综合实力。作为证监会首批获批发行养老目标基金的公司之一,万家基金旗下养老目标基金均由万家基金组合投资部管理,团队负责人徐朝贞拥有19年跨境资产研究及投资经验,其中17年投资经验,投资研究团队共7人,在养老投资领域经验丰富、筹备充足。 此外,ChatGPT还提到要关注“投资策略”,从这个维度看,养老目标日期基金的投资策略,具有比较好的“普适性”。以万家养老2035三年持有期FOF为例,一方面,采取大类资产配置策略,多元配置提升组合防御力;另一方面,采取“下滑曲线”模型进行配置,随着目标日期时间的临近,权益类资产投资比例逐渐下降,较好地匹配了人一生的风险偏好的变化。 万家养老2035三年持有期FOF 数据来源:基金产品资料概要,发布日期2023.1.17 目前,这款基金成功被纳入个人养老基金名录,增设Y类份额,通过个人养老金账户可自主申购。从ChatGPT提及的“投资成本”来看,相对于原本的A份额,万家养老2035三年持有期FOF的Y份额在管理费和托管费方面均实施五折优惠,进一步让利投资者。 与ChatGPT交流完,不知道大家有没有得到相应的养老启示?总之,对于养老投资还是需要尽早去谋划,越早开始,就可以越充分地利用时间的复利效应,来实现长期的财富保值增值,也有望更好地享受到“科技养老”带来的便利。每个人都面临着养老压力,但幸好我们还年轻,还来得及加入到养老规划的潮流中去,一步一步积攒养老资产! 声明及风险提示:证券市场价格因受到宏观和微观经济因素、国家政策、市场变动、行业和个股业绩变化、投资者风险收益偏好和交易制度等各种因素的影响而引起波动,将对基金的收益水平产生潜在波动的风险。投资人购买基金时候应详细阅读该基金的基金合同、招募说明书、产品资料概要等法律文件,了解基金基本情况,及时关注本公司官网发布的产品风险等级及适当性匹配意见。由于各销售机构采取的风险评级方法不同,导致适当性匹配意见可能不一致,提请投资者在购买基金时要根据各销售机构的规则进行匹配检验。基金法律文件中关于基金风险收益特征与产品风险等级因参考因素不同而存在表述差异,风险评级行为不改变基金的实质性风险收益特征,投资者应结合自身投资目的、期限、风险偏好、风险承受能力审慎决策并承担相应投资风险。基金管理人承诺以诚实信用、勤勉尽职的原则管理和运用基金资产,但不保证基金一定盈利,也不保证最低收益。我国基金运营时间短,不能反映股市发展所有阶段。基金有风险,投资需谨慎。基金的过往业绩不预示其未来表现,基金管理人管理的其他基金的业绩和其投资人员取得的过往业绩并不预示其未来表现,也不构成基金业绩表现的保证。
从强化学习视角聊聊 ChatGPT
AI与化学

从强化学习视角聊聊 ChatGPT

笔者上周末测试这个产品后感觉到了写代码和写科幻的双重失业危机,赶紧去看了下官方的博客和援引论文的信息。从 ChatGPT 的产品博客[1]来看,基本路线是在 175B 的 GPT-3 上使用人类反馈强化学习 (RLHF) 来强化对人类指令的识别 。 ChatGPT 惊艳的效果主要可以归功于三个方面: 从文本和代码混合数据中习得足够强基础模型(GPT-3.5)从真实人类反馈中习得足够准奖励模型(Reward Model)两者交互和强化习得强交互能力的最终模型(InstructGPT-3) GPT-3 到 InstructGPT-3 先看看官网上从 GPT-3 到 InstructGPT-3 迭代路线[2],参考 OpenAI model index GPT-3.5 2020年7月发布了 175B 的 GPT-3[3],主要基于文本训练、通用任务训练。紧接着 2021年7月又发布了 12B 的 CodeX[4],主要基于代码训练。这个模型没有直接用到,但随后受到启发,提出基于文本和代码混合数据训练的方法[5],在 GPT-3 基础模型上训练了 175B Code-davinci-002(davinci 指的是 175B size 系列)。 基于 Code-davinci-002,OpenAI 进行了两阶段的训练以重点提升意图识别的能力(InstructGPT)[7],分别是(1)prompt +...
ChatGPT的科学和不科学
AI与化学

ChatGPT的科学和不科学

ChatGPT于去年11月30日发布,我就开始试用了,写过几篇小文章。那时在海外和业内人圈子里,火了一波,国内大部分人都没反应。 春季后,券商报告强推,微软百亿投资openAI,百度紧跟形势不掉队,国内爆炒ChatGPT的热度甚至超过国外,大超预期。 然而,ChatGPT不开放来自中国地区IP和手机号码的用户注册,大部分人没有真正用过。有人用国外账号架设了中继服务器,给国内朋友使用。受条件所限,大部分使用者浅尝辄止、看热闹的多。有些文章甚至存在夸大ChatGPT能力的情况。 所以,我想用我这两个月的使用心得,聊聊科学使用ChatGPT和不科学使用ChatGPT的地方。 这些科学和不科学的地方,也反映了大家对ChatGPT在具体应用场景中的科学性的思考。 |《兔年第一只上天的猪》,作者AI生成 先说不科学的地方。 1、当搜索引擎用 由于谷歌和百度入局,很多人讨论将来搜索引擎会被替代。所以有人很自然地,现在就把ChatGPT当搜索引擎来使用和测试。 这个问题很大! 如果输入“如何做鱼香肉丝”这个问题,搜索引擎找到已经存在于互联网上的做法,并把结果排序。而ChatGPT给出的是看起来像“做法”的一段文字。这段文字不是从一个完整的做菜秘籍来的,而是它的算法根据每个字的概率和上下文,一个字一个词产生的。你貌似看到了一个完整的做法,但这个做法从来没有存在过,也没有人用过。 ChatGPT只是造了一段做菜的文字。要理解这一点,需要回到ChatGPT的模型。 ChatGPT模型综合使用了in-context learning、RLHF等模型。此处不展开技术部分的讨论。其中一部分模型是用类似我们英语考试最熟悉的、完形填空的方法来训练的。 比如一道完形填空题:我喜欢___的感觉。 空格里,可以填成我喜欢跑步的感觉,可以填成我喜欢炒菜的感觉,也可以填我喜欢发呆的感觉。填什么取决于对话场景。 如果填成我喜欢被杀死的感觉,这种场景出现的概率很低。算法会降低“我喜欢”后面跟“被杀死”三个字的概率。 如果填成我喜欢桌子的感觉,就是完全错误的答案,算法给“桌子”的概率是零。 基于很多类似这样的题目,让机器做题,再纠正对错,就可以训练出算法。 所以,ChatGPT是文字编码和概率组合的游戏,不是准确的事实信息。 搜索引擎最大的难度是找到最相关的准确信息。现在ChatGPT还当不了搜索引擎。将来它会是搜索引擎的好帮手,可以把搜索引擎的准确结果,组合得更易读。 想象一个“搜索引擎+ChatGPT”的场景:基于搜索引擎的准确信息,ChatGPT组合出一篇结构严谨、文字优美的文章。不用你把每个搜索页面打开、拷贝、组织、粘贴了。 2、当专家用 我曾经试过问ChatGPT:如果中国经济想在2023年重新回到较高的增长速度,需要解决什么问题,你有什么建议? 它回答:对于中国经济重新回到较高的增长速度,我有以下建议:1. 重点加强消费需求;2. 加强改革和创新;3. 完善金融体系;4. 加强社会投资;5. 健全科技体系。 这些回答看起来头头是道,确实和专家说的一样,并且还有新颖的地方。这是因为,当问这个问题的时候,模型训练过的大部分文本中,涉及经济增速的那些话,都是专业人士说的。在专业的语境里,出来的语言就是专家的语言,不会是老百姓的回答:增速高低管我啥事,有人给我发工资就行。 所以,不能信ChatGPT说的话,不能把它当专家。但是这些话可以给你启发,你自己可以想这五条建议对不对。 |《不要信AI》,作者AI生成 3、想一次得到想要的结果 ChatGPT这个名字,Chat部分,会给人一些误导。 一般来说,我们和人交流,不会重复问对方同一个问题;正常人不会每次对同一个问题,给出不一样的答案。人的思想是一致的,说出来的话是一致的。一言九鼎,人不能瞎说。 ChatGPT不一样,不能把它当成人。如果问了一个问题,觉得它回答得不好,你可以重复问同样的问题,直到得到满意的答案。ChatGPT算法的随机性,让它每次给出的答案都不一样,会有完全相反的观点。 ChatGPT模型有个参数,叫temperature。如果temperature是0,它不说不靠谱的话,在是与否、答案唯一的问题上,它不胡说。不知道的,它说不知道。如果temperature大于零,它说的是有一定概率相关的话,每次说的不一样。 我把temperature参数叫做胡说参数。胡说参数值越高,越天马行空,直到语言都对,但张冠李戴、事实完全错误。就像生活中偶尔碰到的正儿八经的胡说八道的人一样。 我看到有的朋友试用ChatGPT,问了开放性问题,看一眼回答后,觉得答案没意思,就认为ChatGPT没意思,不再用了。这样体会不到ChatGPT的妙处。要得到有趣的结果,要不停地问它,就会有惊喜。 再比如,同样的问题,可以设定文字的语气。比如,我让ChatGPT礼貌地提醒别人请戴口罩,它的回答是: “请您注意戴口罩,以保护您和他人的健康。” 如果让它言辞激烈地提醒别人戴口罩,结果是这样的: “不戴口罩,你就是在自寻死路!” 完全不一样。 这是ChatGPT强大的地方,会产生非常有用的应用场景。...