文章主题:大型语言模型技术公开课, 智东西公开课, LLM, 语言模型
「大型语言模型技术公开课」,由我国知名智东西公开课教研组精心打造,将长期邀请 LLM 领域的权威专家与科研工作者,通过视频直播的方式,深度剖析开源的大模型语言模型及其背后的技术原理,为广大观众带来一场视觉与听觉的盛宴。
在这个季度,潞晨科技的技術VP柳泓鑫,新加坡國立大學的在读博士張傲,香港科技大學的在读博士刁詩哲,以及腾讯AI Lab的高级研究員宋林四位主講人,將會分批次針對ColossalChat、VPGTrans、LMFlow以及GPT4Tools這四個開源項目進行深入讲解和解答疑問。
在6月5日的晚上7点,香港科技大学的一名在读博士生,名叫刁诗哲,将参与一场名为「大型语言模型技术公开课」的直播活动。此次活动的主要内容是介绍一种名为LMFlow的开源框架,该框架能够以低成本的方式训练专属的ChatGPT模型。刁诗哲将在直播中分享关于这一主题的深入见解和经验。
ChatGPT的出现引发了人们对科研路径和未来发展的思考:如何在通用人工智能领域发挥作用,以及在这个大型模型盛行的时代找到个人优势?许多人期望拥有能力训练属于自己的AI大模型。虽然目前已有许多开源的类似GPT产品,但对于普通学者、研究人员和程序员而言,这些产品尚无法满足个性化需求。
在当前的AI技术环境中,我们探讨黑盒封装的重要性是至关重要的。尽管API基础的应用开发起来十分便捷,但是其带来的问题也不容忽视。首先,基于API的黑盒封装并非无懈可击的完美方案。这种方案虽然在开发过程中能够带来一定的便利性,但在实际使用中却可能出现一些不尽如人意的情况。再者,从整体来看,从头预训练的方法虽然在成本上较高,但它在使用效果和自定义程度方面具有明显的优势。因此,无论是从成本角度还是从技术实现的角度来看,从头预训练和基于API的开发都不是最理想的选择。
由香港科技大学统计与机器学习实验室的研究团队所提出的「LMFlow」开源方案,旨在为个人和企业提供一种有效的方法来解决上述问题。该方案能够在低廉的成本下,优化并训练出一个特定领域的个性化ChatGPT,以满足各种需求。
针对有限的计算资源,通过 LMFlow 开源库,基于 LLaMA-7B,只需 1 张 3090、耗时 5 个小时,就可以训练一个专属于自己的个性化 GPT,并完成网页端部署。该团队还利用 LMFlow 单机训练了一个 330 亿参数的 LLaMA 中文版,并且对模型权重进行了开源,用于学术研究。
在这一讲,刁诗哲首先会比较当前不同的大模型微调开源框架,帮助大家选择适合自己需求的框架,之后深度讲解低成本微调全流程框架 LMFlow,以及全新、高效、稳定的对齐算法 RAFT。最后,他也会分享一个支持多模态复杂推理和目标检测的微调方案 DetGPT。这些工具的使用能够帮助个人和中小企业在低成本的情况下微调出一个垂直领域、个性化的专属 ChatGPT,从而满足自己的需求。
第三讲
主 题
《低成本训练专属 ChatGPT 的开源框架 LMFlow》
提 纲
1、大模型微调开源框架对比
2、低成本微调全流程框架 LMFlow
3、全新的对齐算法 RAFT 解析
4、支持多模态复杂推理和目标检测的微调方案 DetGPT
主 讲 人
刁诗哲,香港科技大学在读博士;曾在字节跳动人工智能实验室、创新工场人工智能研究院实习;主要研究方向是大模型的预训练、高效调优和领域自适应。曾在 TMLR、ICLR、ICML、ACL、EMNLP、WWW 发表多篇论文。
直 播 时 间
6 月 5 日 19:00

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!



