推出2个月,月活突破一个亿,一时间,ChatGPT以一种排山倒海之势席卷而来。它颠覆性的使用体验、它远在人们意料之外的“聪明”程度,让这一生产工具的出圈速度也呈现出了历史级别。

山雨欲来风满楼。以ChatGPT为代表的AI语言模型是“风”,而背后的“山雨” 是AIGC。

AIGC全称为AI-Generated Content,即利用人工智能技术来自动生成内容。听起来这似乎和以前的人工智能没有什么区别,可为什么这次以ChatGPT为代表的AIGC却被认为是具有划时代意义的?甚至比肩18世纪的蒸汽机和19世纪的电力。AIGC会带来哪些机遇与挑战?

为什么说AIGC是一次技术跃迁?

AIGC能够自动生成的内容包括了文字、图片、音频、视频、代码等等,我们看到的诸如AI绘画、AI写作、AI对话、AI播客、AI搜索引擎等都属于AIGC的分支。在AIGC技术应用的模态中,有一种模态是文本生成,而ChatGPT就是文本生成的代表产品之一。

正如《技术的本质》一书中所说:技术的“组合”和“递归”特征,将彻底改变我们对技术本质的认识。

AIGC的概念其实也并不是今年才出现,它的出现甚至可以回溯到上世纪50年代。当时,由于科技水平所限,AIGC仅限于小范围实验。1957年,弦乐四重奏《依利亚克组曲(Illiac Suite)》诞生,这首乐曲通过将计算机程序中的控制变量改为音符,打造出了历史上首部由计算机创作的音乐作品。

《伊利亚克组曲》乐谱片段(图片来源网络)

这也就是最初的AIGC萌芽——如何使用计算机生成内容。不过,早期的尝试还是侧重于通过让计算机生成照片和音乐来模仿人类的创造力,生成的内容与“真实感”相去甚远。

之后,类似于微软小冰等人工智能作诗、写作、创作歌曲的产品也都属于AIGC领域。随着深度学习模型的不断迭代,AIGC逐渐取得突破性进展。

不同于以往的AI服务,ChatGPT带来的最大震撼在于它可以理解用户需求,并且创造内容、协助代码编写,而且还能够根据用户的追问进行判断,并在后续对话中进行修正或补充。

巨头争相入局为哪般?

一石激起千层浪。ChatGPT推出后,全球各大互联网巨头纷纷公开下场抢占赛道。今年1月24日,微软宣布已与OpenAI扩大合作伙伴关系,或在3月之前,在Bing中应用ChatGPT回答一些搜索查询;2月6日,谷歌透露计划推出聊天机器人Bard;在国内,百度首先官宣其生成式AI产品“文心一言(英文名:ERNIE Bot)”将于3月完成内测,并将向公众开放。

文心一言基于百度的文心大模型,据百度官方提供资料显示,文心一言具备跨模态、跨语言的深度语义理解与生成能力,在搜索问答、云计算、内容创作生成、智能办公等众多领域都有更广阔的想象空间。

另据公开数据显示,目前已经有400多家头部企业宣布加入百度文心一言生态,这些企业涉及互联网、媒体、金融、保险、汽车、企业软件等多个行业,企业可以使用百度智能云提供的API和基础设施,搭建AI模型和应用。届时,文心一言将通过百度智能云对外提供服务。

就在2月20日,紫光股份旗下新华三集团宣布成为百度文心一言的首批生态合作伙伴。一方面,新华三将为百度文心一言提供先进的算力和网络基础设施,并且,双方还将在产品研发、标准制定等多个领域继续展开深化合作。而在此基础之上,新华三也将借助文心一言获得更强大的平台搭建能力和渠道延伸能力。

2022年以来,AIGC集中爆发,国内外的科技巨头和投资纷纷入局,AIGC商业落地成为可能。输入自然语言描述,从而生成各种模态的数据,是现阶段AIGC的典型应用,常见的类型有文本、代码、图像、语音、视频、3D模型、场景、音乐等。未来,内容孪生、内容编辑、内容创作,AIGC的这三大基础能力将随着产业发展而逐渐升级,基于这些基本模式生成的任务,又可以衍生出各种各样的应用场景。可以预见,不久的未来AIGC可能就会像水、电一样,成为人类不可或缺的一部分。

躬身入局,新华三胜算几何?

纸上得来终觉浅,绝知此事要躬行。

新华三与百度的合作由来已久。双方在ICT基础设施优化升级、百度智能云建设、信息检索、自动驾驶、生态建设等众多领域均有研发级别的合作,相关成果也早已广泛落地,并对双方的产品技术发展产生了深远的影响。这次官宣成为文心一言首批生态合作伙伴,标志着新华三拥抱AIGC的积极态度。

Gartner预计,到2025年,生成式人工智能将占所有生成数据的10%。过去,传统人工智能偏向分析能力,2012年深度学习刚刚诞生的时候,大家就尝试把更多的算力和数据灌输到一个模型中去,让AI具有更强的分析能力,这个逻辑在今天依然没有变。而不同的是,量变引发了质变,算力、数据的指数级增长正使得超大基础模型成为AIGC得以落地的必选项。

顾名思义,超大基础模型势必要有大量参数和数据参与训练,算法依赖大模型参数的提升以及模型本身的优化,而算力和数据则需要依赖传统的GPU服务器、存储,以及网络来实现相互交融,并正反馈给算法本身。AIGC的发展依然离不开算法、算力和数据这“三驾马车”,头部大厂的规模优势则会更加凸显。

态度之外,新华三拥抱AIGC可谓是“有备而来”。AIGC的发展依然离不开算力、算法、应用的基本框架。基于对AIGC全流程技术需求的了解,新华三设计出如下智算基础架构全貌:

这套智算架构包含了两个大的区域:智算训练区和智算推理区。预训练的数据集一般存放在高性能存储里,训练集群通过RDMA网络以文件格式将数据集拉取到本地进行训练。在训练过程中会存在大量的加乘运算需要处理,同时节点间会进行大量的参数交换和梯度传播。模型训练好后会导出,并采用业界常用的低精度量化、剪枝、蒸馏等方法进行轻量化处理。经过轻量化处理后,模型的大小、参数、执行时间等都大规模减少,最后,会将模型部署在推理集群

进行服务。之后再输入的要求和指令,将会进入到智算推理区,推理GPU集群经过一系列运算便输出相应结果。

GPU服务器节点间需要高速网络来实现模型训练参数交换和存取,这也是AIGC对网络提出的更高要求。高性能网络选择之一就是RoCE网络,而新华三一直占据着互联网400G领域的“头把交椅”,基于S9825/S9855交换机配合AI ECN方案可以迅速搭建AIGC训练所需的高性能网络。

AI-ECN调优算法模型具有效率高、计算量小的特点,同时支持控制器集中式调优和网络设备分布式本地调优两种模式。例如,在集中式调优模式下,不需要专用的AI芯片,使用搭载Intel XEON-SP服务器的管控析集群,就可在较大规模网络管理下,开启ECN水线调优;在本地模式下,搭载Intel XEON-D 和 ATOM的新华三网络交换机,仅以较小的CPU开销就可以完成调优。

随着大模型训练所需网络带宽的不断提升,网络主芯片性能也会迅速增加。当800G/1.6T时代来临时,CPO/NPO交换机将会登上互联网舞台,而新华三也早已有所布局。S9825-32D32DO交换机,同时支持32个400G光模块接口和32个400G光引擎接口,后续可以平滑升级至51.2T平台。

每一个里程碑式的改变都来自看似偶然的必然。在移动互联网时代,用户只用一部手机就能处理许多复杂的事情,强大的算力、友好的人机交互造就了苹果的壁垒。AIGC时代,企业对云的需求会更加聚焦智能服务,壁垒来自于框架、模型,更重要的是背后是否有强劲的算力、网络来支撑,新华三的智算能力正是它躬身入局AIGC的底气与信心。

Leave a Reply

Your email address will not be published. Required fields are marked *