聚焦2023上海车展|ChatGPT“上车”,引发“第三空间”化学反应?文汇报2023-04-20 06:17
AI与化学

聚焦2023上海车展|ChatGPT“上车”,引发“第三空间”化学反应?文汇报2023-04-20 06:17

▲在本届车展上,商汤绝影的智能展示舱将数字人与大模型结合起来。 本报记者 张伊辰摄 新一代科技革命呼啸而至,ChatGPT等技术与正在电动化、共享化、网联化、智能化的汽车相遇了。在第20届上海国际汽车工业展览会上,ChatGPT成了热词:4月上旬才相继问世的一些类ChatGPT产品,几天后就纷纷“上车”,探索汽车这一工作、居住之外的“第三空间”里的奇妙化学反应。 “新能源汽车将是大模型最大的交互应用场景。”斑马智行CEO张春晖对ChatGPT与汽车的结合作出了大胆判断。他说的是智能汽车的新飞跃:从钻研汽车“心脏”到探索汽车“大脑”,从专注汽车本身到汽车的“万物互联”,ChatGPT奇点的到来为这一切打开了想象空间。 现场直击:打开“第三空间”百宝箱 上海车展与ChatGPT的交集,主要来自于造车新势力。相对于传统造车企业,这些新势力的“新四化”渗透率更高,背后往往有科技企业的技术加持。 在5.1号馆,商汤绝影的展位在角落里,但丝毫不影响它成为关注的焦点——4月10日商汤刚刚发布的“日日新”大模型体系,已成功嵌入座舱。考虑到车展的策划执行还要提前一个月,可以推断,“日日新”在研发过程中已同步考虑到车载应用落地。 走入绝影未来展示舱内体验,最大的感受是数字人与大模型的结合。记者首先提出,请为我规划一个“五一”小长假上海5天游的行程。在停顿了约30秒之后,屏幕上给出了一份近300字的超长攻略。记者再提要求:请总结一下。大模型随后给出了50字左右的简短行程。随后记者再度“挑刺”:我不想去上海野生动物园。几秒之后,多个可替代景点的方案呈现在屏幕上。从体验看,基于千亿参数的大模型,让车舱内的多轮对话变成现实,仿佛打开了“第三空间”的百宝箱,并且可以执行。据悉,商汤绝影已与30家车企合作,智能驾驶和智能座舱产品累计前装定点数量超3100万台。 来到百度Apollo展台,一辆搭载文心大模型的现代帕里斯帝体验车已就位。“打开车窗、开启空调”,记者下达指令后,车内“可见即可说”。乘客人多怎么办?记者体验发现,车辆具备8路连续对话功能,即使是多位乘客一起和车辆交流,也不会“串台”。从百度发布的文心大模型的落地应用演示视频来看,汽车还能帮你拍照并发朋友圈、自检电池性能、解答相关问题等。 此外,百度和华为还在提前布局“无图商用”的升维打法。华为在车展期间发布了问界M5系列华为高阶智能驾驶版,到今年二季度,最新的智驾系统ADS 2.0将在15城实现不依赖高精地图的智能驾驶落地。百度则推出了“轻HD地图”,通过加强算法来减少车辆对于道路要素的依赖,同时可实现快速更新。 让汽车“长脑子”,重塑操作系统 “ChatGPT正在搅动汽车这个过去有点封闭的产业。”说这句话的,是奇瑞雄狮科技总经理邬学斌。他认为,汽车智能化才刚开始,智能化的底层逻辑是人工智能,人工智能的底层逻辑则是数据、算力和算法,他用“为汽车装上脑子”来形容ChatGPT将带来的深远变化,“今天的汽车,有心脏、四肢、骨骼,就是没有脑子,所以一直没有重大突破”。 “用脑袋改变汽车”的提法,在上海车展上被很多专家所认可。本次车展开幕当天,智己汽车发布了AI4M战略,公司联席CEO刘涛也作了类似比喻,“AI+软硬件”架构,简单来说,就是拥有像人一样的大脑、眼睛、四肢,但它也需要“更像人”的思维逻辑去控制,让智能汽车真正像人一样去思考。 这个“大脑”,用科技行业的专业术语来说,更确切地指向了底层操作系统。中国工程院院士、清华大学智能产业研究院院长张亚勤认为,以“文心一言”为代表的平台化通用式强人工智能,会给整个汽车行业带来极大冲击,“当通用大语言模型走向多模态模型,我们一定要有这样的认知,它不是一个对话机器人,而是我们在智能化时代、人工智能时代新的操作系统”。 阿里云在4月11日发布“通义千问”大模型后,也快步闯荡上海车展。张春晖认为,在智能汽车上,AliOS接入“通义千问”大模型后,“在基础系统层,大模型自动生成代码可以极大提升编程效率;在平台框架层,基于大模型的SOA可以让车企和操作系统企业更快捷地联合共建;在用户交互层,则是用户自定义,大模型负责生成。”总之,将推动汽车操作系统全新的共建理念与发展战略,在技术引领下催生“杀手级”应用出现。 据悉,智己汽车已成为首个采用“通义千问”大模型算法赋能整车的品牌,并与多家国内顶尖大模型算法机构探讨深层次合作,将利用ChatGPT在更多智能场景应用上实现突破。 从汽车本身到“车联万物” 就在几天前,OpenAI首席执行官山姆·奥特曼表示,巨型AI模型发展模式已结束,GPT-4可能是OpenAI“使模型更大并为其提供更多数据”战略中的最后一个重大进展,新的进步不会来自于让模型变得更大。在不少专家的解读中,ChatGPT已转向拼应用的阶段。 而汽车一直是AI落地的重要场景。据IHS Markit数据统计,目前中国市场座舱智能配置的新车渗透率约为48.8%,到2025年预计可超过75%。张春晖认为,新汽车具有交互主体多、交互方式多、交互黏性强、计算零件多、数据规模大、空间属性和社会属性等特征,这决定了新能源汽车一定是大模型最大的交互应用场景之一。 但要实现这种跨越也并非易事。有人就提出质疑:ChatGPT牵涉的算力太“烧脑”,汽车会不会变成一个移动大机房?以智能汽车计算零件数为例,一部手机的传感器只有13个,但当下一辆智能汽车却具有340个传感器和66项控制权,是手机的26倍多。埃森哲大中华区董事总经理陈明就此认为,随着汽车数据种类不断增多,体量愈发庞大,迭代速度持续加快,实现数据变现的挑战也会越发复杂,且成本高昂。 当然,所有的挑战与难题一旦被突破,就能成为“弯道超车”的撒手锏。陈明认为,当下数据的交互和使用,还处于线上线下打通的起点,即将消费者、4S店、主机厂、系统提供商等做整合,以更好数字化转型,而放眼未来,ChatGPT大潮将推动智能网联及自动驾驶往前疾驰,企业要有效整合价值链上各环节的数据,优化效率,提供服务,这将带来一个巨大的想象空间。 如果从“车联万物”角度看,汽车的“大脑”必将成为枢纽般的存在,而本届上海车展上亮相的多轮语言交互、无图商用等应用都只是小荷才露尖尖角。ChatGPT“上车”,看起来还有很长的路要走。 作者:徐晶卉 周渊 编辑:施薇 *文汇独家稿件,转载请注明出处。 举报/反馈
清华AIR开源轻量版BioMedGPT!聂再清:要做生物医药版ChatGPT量子位2023-04-20 17:19北京
AI与化学

清华AIR开源轻量版BioMedGPT!聂再清:要做生物医药版ChatGPT量子位2023-04-20 17:19北京

衡宇 萧箫 发自 凹非寺量子位 | 公众号 QbitAI 生物医药研发领域,一个名为BioMedGPT-1.6B的轻量级科研版基础模型刚刚开源。 参数16亿,最大特点是跨模态与知识融合。 训练数据中,包含分子、文献、专利、知识库等多尺度跨模态的生物医药大数据,并融合分子结构、知识图谱和文献文本中的知识,用于增强模型的泛化能力和可解释性。 应用任务上,BioMedGPT-1.6B则展现出了通用能“打”的效果,可以处理药物性质预测、自然语言类、跨模态等多种任务。 打造这个BioMedGPT-1.6B生物医药基础模型的团队,来自清华智能产业研究院(AIR)。 项目负责人聂再清,清华大学国强教授、AIR首席研究员,主要研究领域是大数据与AI的前沿创新,以及在健康医疗领域的产业应用,更早之前则以阿里达摩院大牛、天猫精灵首席科学家为人熟知。 △聂再清 此次开源的BioMedGPT-1.6B,其实是他和团队正在做的BioMedGPT的单机轻量版,后者是一个适用于生物医药领域研发的通用大模型。 1.6B版本先行开源,目的是小试牛刀,同时让行业相关科研人员有东西可用。 所以,这个BioMedGPT究竟是做什么的,团队目前进展如何?在业界已有不少生物医药专业大模型的情况下,做通用大模型的考量是什么,又要如何去做? 聂再清教授向我们解答了背后的思考。 生物医药版GPT,也应具备“涌现”潜力 先来看看BioMedGPT究竟是个什么项目,进展到了哪一阶段。 聂再清教授认为,就像ChatGPT成为了NLP领域的基础大模型一样,BioMedGPT也会成为生物医药领域的基础大模型。 但在这里,“像ChatGPT”并不仅仅意味着BioMedGPT=生物医学大模型+对话能力,而是和ChatGPT一样,会出现智力涌现的情况。 只不过,这里的“智力”,指的是生物医学领域方面知识的理解、规律的发现与灵感的启迪。 这个基础模型的底座能够给药物发现、分子/蛋白质设计等应用提供底层能力,同时能够成为生物医药研究者的助手(Copilot)辅助研究者更高效的开展研究探索。 所以,能实现这种效果的BioMedGPT,架构上究竟长啥样? 整体来看,它是一个具备多个输入Encoder的模型,这些Encoder会先分别处理不同模态的输入,如分子、蛋白质和文献等。 然后,将这些不同模态的输入,进行统一表示处理,这样就能学习到不同模态之间的关联知识。 这给了模型“融会贯通”的能力,既可以读文献、查专利,又可以读分子序列、蛋白结构、实验数据。 不仅如此,BioMedGPT也是首个将多模态知识引入模型构建的项目,通过知识图谱的方式将生物医药领域的知识注入到模型中,以增强模型的泛化能力和可解释性,同时能够应对科研领域知识的快速更迭,让模型持续学习,变得更“聪明”。 基于这种融会贯通与知识增强的能力,BioMedGPT在下游的多项任务中表现出了整体的效果提升。 目前团队已经完成了实验验证阶段,用一个比较小的端到端模型证明了这种思路的可行性。 那么最终能在生物医药方面表现出“智力涌现”的模型,预计在什么规模? 聂再清教授认为,模型参数量级预计在几百亿左右,而训练这一模型达成“涌现”效果的数据量,几十亿到百亿级应该也就够了。 事实上,在ChatGPT出现之前,也就是一年多以前,聂再清和团队就已经在筹备这一项目,目前清华AIR生命科学相关团队规模已经达到50人左右。 对于BioMedGPT的未来,聂再清教授很有信心: 预计两年内,这个模型应该会在小范围内具备一定影响力,至于像ChatGPT那样成为行业通用大模型,做到那样的影响力可能至少还需要3~5年。 但即便如此,BioMedGPT模型究竟能否成功,目前仍旧是一个未知数。 同时对于大模型训练必不可少的算力和数据等方面,也仍然是业界关注的话题。 对于这些观点和想法,聂再清教授又是如何看待的? “一个理性而大胆的尝试” 大模型的发展和AI技术的更迭组成了ChatGPT为首的一波AI新浪潮。 但早在聂再清教授动念要将生物医药学科知识“塞”进大模型里时,ChatGPT还没打破沉寂。 所以为什么要做?为什么敢做? 时间回到ChatGPT刮大风之前。当时,GPT-2已经可以编故事,下象棋;等到1750亿参数GPT-3出现,已经博得众人瞩目:不仅延续了前代编故事的能力,还能写代码、答问题…… 利用大规模文本数据学习语言知识和规律,加上狂叠参数的暴力美学,GPT-3已经在通用领域任务中出现涌现能力,到GPT-3.5,基本的逻辑推理能力突然出现。 在生物和化学领域,生命的本质可以看做一种精密的编码语言,尤其是生命科学领域中微观世界的分子序列数据。...
《AI助力化学:ChatGPT在化学领域的作用与局限》
AI与化学

《AI助力化学:ChatGPT在化学领域的作用与局限》

这篇文章介绍了人工智能助手ChatGPT如何辅助化学教授的工作。通过实际应用,ChatGPT在编写化学论文和管理文献方面表现出了一定能力,但在理解和处理复杂化学问题方面仍有局限。尽管如此,ChatGPT仍被视为未来协助化学教授工作的一大工具。
ChatGPT访问量首次下滑,“降温”背后大模型需要冷思考
AI与化学

ChatGPT访问量首次下滑,“降温”背后大模型需要冷思考

文汇报资料照片 大模型似乎没那么“热”了。今年6月,ChatGPT访问量环比下滑9.7%,为其推出以来首次下滑。从全球范围看,尽管不断有企业发布或更新大模型,但媒体和公众似乎没那么“上头”了。 在昨天举行的2023世界人工智能大会青年优秀论文奖颁奖仪式暨青年科学家论坛上,复旦大学计算机科学技术学院教授邱锡鹏直言,虽说是“百模大战”,但各家大模型之间同质化严重,实质性的创新比较少。事实上,大模型远未到变成一个单纯的工程问题的时候,距离人们理想中的通用人工智能,其本身还有许多科学问题亟待解决。 “百模大战”其实是挤同一条赛道 “大模型还有科学价值吗?”邱锡鹏在开场白中似乎就给大模型浇了一盆冷水。大模型的爆火并非偶然,是几十年科研不断推进的结果,但在ChatGPT爆火后,一个明显的变化是这一领域中科学进步少了,大家都寄希望于通过工程手段“大力出奇迹”。 比如,现在几乎所有的大模型预训练都基于Transformer架构,这固然是一个非常好用的架构,但其弊端也愈发显现,它所耗费的计算资源非常庞大,需要超级算力的支撑。 另外,生成范式成为主流,这使得想要使用大模型,就必须将自己的任务变成生成式的,即便是那些非常复杂的结构化预测问题也都要用生成式方法解决。甚至,连生成式范式也在趋向统一,原先还有Seq2Seq(一种用于序列到序列的深度学习模型)和LM(语言模型)两大类,现在只剩下后者。 而且,研究领域也在萎缩。邱锡鹏说,以自然语言处理(NLP)为例,2015年之前,这个领域还有多个不同方向,比如对话、问答、机器翻译等,那时的学者各自有着自己的研究,并从别的研究领域中获得灵感,而现在大家都涌向大语言模型这条单一赛道。 大模型面临“十大科学挑战” 尽管大模型展现出通往通用人工智能的潜力,但这条路并不好走。邱锡鹏列出了大模型亟需解决的“十大科学挑战”,包括架构设计、思维链、幻觉、多模态延展、自动化评价、平民化等。其中,大模型的架构创新是当务之急。邱锡鹏说,大模型之所以称为大模型,是因为其庞大的数据量使其拥有了涌现的能力,虽然人们至今不知道涌现是如何发生的,但是否有涌现是区别大模型与小模型的主要特征。换言之,想要大模型更智能,继续扩大其规模是一条显而易见的路。 但是,当下主流的Transformer架构已经制约了模型的进一步扩大。这是因为Transformer的复杂度是输入字符长度的平方级,每多输入一个字符,计算量就会以指数级增长。因此,“只有找到更高效的新架构,才能支持未来模型规模的进一步扩张。” 另一个对大模型发展至关重要的问题是评价体系。尽管当下有许多测评大模型优劣的榜单,但业内对此并没有形成统一标准。而且对于擅长“刷题”的大模型来说,很多数据集上的表现已不足以衡量其真实能力。 颠覆性创新常在“冷门”处 深入研究创新规律不难发现,越是扎堆的“热门”圈子,往往难出颠覆性创新成果,ChatGPT本身就是个“冷门选手”爆火的案例。在其火遍全球之前,在大语言模型领域,谷歌的“理解与生成相结合”的路线是绝对的主流,在这种情况下,研发ChatGPT的OpenAI公司仍然选择坚持走自己的路。 现在,原本默默无闻的生成式AI成为了“顶流”。当人们一哄而上投入其中时,仍有一部分人还在坚持以IBM沃森机器人为代表的“AI符号主义”技术路线。以“爆款”常偏爱“冷门”的创新规律来看,或许未来的“核爆点”会奖励默默坚持的“少数派”。 事实上,获得今年世界人工智能大会最高奖项SAIL奖(卓越人工智能引领者奖)的论文《机器学习结合阻抗谱技术预测锂电池老化》,就不是一个关于大模型的研究。文章第一作者、中山大学物理学院副教授张云蔚说,她只采集了2万个电化学阻抗谱,就实现了AI精准建模。比起海量数据,更重要的是思路。就是这样一个小模型,将过去需要花费几天才能实现的电池寿命预测缩短到了15分钟,且检测精度是原来的10倍。 在大模型爆火的半年多时间里,大家似乎形成了一种共识,即只有资金雄厚和数据储备充足的大厂才有进军大模型的资格。对此,邱锡鹏认为,大模型还有大量科学问题需要攻关,这些问题除了预训练阶段需要耗费大算力外,在对齐、指令微调等方面所需的算力并不高。而随着算法的优化,3090显卡足以能完成大模型的研究,这是一条小公司也能“出奇迹”的赛道。 作者:沈湫莎 责任编辑:任荃 *文汇独家稿件,转载请注明出处。 举报/反馈