文章主题:ChatGPT, 发展, 技术架构, GPT系列
《科创板日报》7月4日讯(记者 李明明) 近日,由北京市人民政府联合工业和信息化部、国家网信办、商务部、中国科协共同主办的2023全球数字经济大会人工智能高峰论坛举办。清华大学计算机系长聘教授、清华大学人工智能研究院副院长、瑞莱智慧/生数科技首席科学家朱军分享了对人工智能目前的发展状态以及安全态势的思考和探索。
朱军认为,ChatGPT的发展历程可追溯至1978年的技术架构突破以及GPT系列的不断发展。去年底Chat版本的推出,从根本上了解决了意图理解、可用性和易用性的问题。今年,其发展速度将会更加迅速。ChatGPT所采用的三项关键技术包括:内容学习、思维链和指令学习,以及基于人类反馈的强化学习。
过去十年,人工智能最大的变化趋势就是从小模型变成大模型。“机器学习常用的模型的规模,发生了巨大的变化,呈现指数型增长的趋势。最受关注的典型成果,就是ChatGPT大语言模型的横空出世。它解决过去机器学习模型从不好用到好用,能够理解意图和上下文等等,已经成了人工智能最受关注、使用最广泛的产品。”他说。
如今,多模态发展已成为大众关注的焦点。朱军指出,人类作为一种多模态感知系统,天生具备处理多种感官信息的能力。在许多复杂的工程问题中,例如图像、文本、语音以及触觉等,我们都会接触到各种模态的数据。因此,无论从实际应用还是理论研究的角度看,多模态模型的开发都显得尤为重要,它有可能成为未来更为强大的技术基础。当前,文本模态的发展相对较为成熟,而其他模态如图像、语音、视频、3D以及分子结构等,也在积极尝试利用大规模预训练模型进行训练和接纳。
朱军阐述,团队正致力于研究大型模型如何解决特定领域的难题,也就是我们称之为的私域服务。相较于公共领域和通用领域,私域问题的关注度更为集中,所提供的专业性也更为深入,对数据的需求也更为严格。这些都属于未来较早期的布局,而且团队在这方面具有一定的竞争优势。
谈及大模型的安全风险,他指出,AIGC特别是ChatGPT出现以后,安全问题越来越严重。大模型本身可能会对Prompt Injection(一种攻击技术)攻击风险,加入少量编辑就会被误导,同时也存在数据泄露的风险,ChatGPT会把很多隐私数据上传。现在还出现了用AIGC技术来提升诈骗手段,通过虚假内容来实现黑产攻击,包括代码生成实现网络攻击。而且生成的虚假内容本身是不良的,存在误导性和欺骗性。
在当今的大模型时代,算法存在的政治偏见和数字鸿沟问题,以及数据采集过程中是否涉及知识产权问题,已经越来越受到人们的重视。
由此可见,我国对于人工智能相关的治理工作高度重视,近期,相关部门发布了一系列重要规定和法律文件,其中就包括了《AIGC服务管理办法(征求意见稿)》以及《深核管理规定》等。
那么,究竟有哪些思路和尝试可以解决这些问题?
朱军认为,首先是从通过基础理论研究突破、提高内在安全性能来持续构建第三代人工智能。从人工智能基础尝试,针对深度学习、深度神经网络,学术界一直在探索第三代人工智能新范式,希望能够将数据和知识有机融合在一起,发展更加安全可靠的人工智能框架。
其次是不断提升大模型安全评测能力。主要关注对抗攻击评测、角色扮演与诱导欺骗评测、混淆指令欺骗评测等方面。
三是构建人工智能安全治理有效工具——人工智能安全靶场。前期团队对此做了探索,包括人工智能本身的安全平台,安全评测、防御和整个态势的评估,包括对抗样本这些场景,可以通过平台化方式,对人工智能的算法和服务进行评测。而特殊专业的应用场景,可专门针对对抗样本检测,伪造视频检测等等进行防护,即人脸识别的防火墙,现在金融行业也在部署和应用。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!