文章主题:AI 市场, ChatGPT, 大模型, 国内科技企业
自去年11月OpenAI推出ChatGPT以来,AI领域引发了全面的爆发式增长,全球科技巨头纷纷跟进,发布自家的大规模AI模型。在我国,这一波AI热潮也带来了空前的机遇,被称为”百模”竞赛。在世界人工智能大会刚刚结束时,我国及全球的科技公司集体参与,超过30个大模型集中展示,标志着”国家队”的确定,同时启动了大模型测试国家标准制定,引发了新一轮的大模型热潮。作为大模型存储体和AIGC应用开发新标准的重要部分,向量数据库的进化也逐渐达到了新的高度。
自2019年 Milvus 开始正式开源,这个向量数据库项目在全球范围内迅速崭露头角,发展成为一个最大、最活跃的开源社区。作为 Milvus 的开发者和运营者,Zilliz 始终站在向量数据库技术的前沿,坚守着为开发者提供易用且性价比高的向量数据库服务的宗旨。经历了五年的精心打磨,Zilliz 终于将国内市场视为重要的发展目标,推出了一款基于 Milvus 的全托管向量数据库云服务产品—— Zilliz Cloud。
Zilliz Cloud以其持续的开发与提升,已经在向量数据库领域中崭露头角,成为了行业的佼佼者。随着Zilliz Cloud在我国全面推出向量数据库云计算服务,一个崭新的时代就此拉开序幕。针对这次在我国的服务的实现,Zilliz所坚守的使命和目标,显得更加鲜明和具体。
提供全球最专业的全托管向量数据库云服务。
打破向量数据库服务集中在北美,国内无可用向量数据库服务的尴尬局面。
满足向量数据库服务多云的需求,避免业务被单一云环境限制。
为跨境业务中所需要的统一向量数据库服务和架构提供可行性。
Milvus 是一个开放式的解决方案,它提供了一套适用于软件即服务(SaaS)和平台即服务(PaaS)的统一接口标准。通过这个标准,企业可以实现线上与线下的无缝迁移,并且能够大幅度的降低混合部署的综合成本。
提供比开源 Milvus 具有更高性价比、更稳定服务支持的产品和解决方案。
成熟稳定,全球率先支持十亿级别向量规模的服务
自从开源以来,Milvus一直是众多企业用户的首选,作为他们自建向量数据平台的理想之选。该平台提供的全套技术解决方案已经被上万家企业广泛采用。其中包括百度、新浪、理想汽车、华泰证券、沃尔玛、LINE以及BIGO等知名企业,这些公司在实际应用中经过严格的验证,并成功实现了投产。
向量数据库作为AIGC大模型中的重要组成部分,对于提供精确且可靠的长期与短期”记忆”信息具有至关重要的作用。在过去的一年中,我们看到了诸如雨后春笋般的向量数据库项目问世。然而,现有的许多向量数据库所支持的向量数据规模仅限于千万级别,这尚不足以满足生产环境的需求。
相较之下,Milvus 在过去 5 年的客户应用场景覆盖各行各业,早在 2021 年就实现稳定支持十亿级向量规模的线上服务。如今,Zilliz Cloud 的向量数据库服务可轻松支持十亿级以上规模向量数据,可用性高达 99.9%。
此外,在产品与技术背后,Zilliz 亦拥有全球最资深的向量数据库专家团队,可以为每一位企业用户配备 4 名技术支持,” 没有人比我们更懂向量数据库 ” 是团队对开源社区与商业化用户的承诺。
高性能 + 高性价比,性能优异远超同类产品
当前主流的向量数据索引算法是内存算法或内存 /SSD 混合,算法内核以矩阵计算为主(类似 HPC),大规模向量检索与分析是计算 / 内存双重密集的任务。这意味着向量数据库作为基础设施,对于性能与成本更加敏感。
从性能方面来看,Zilliz Cloud 在 QPS 和降低查询延迟方面远超其他同类产品。我们将 Zilliz Cloud 、Milvus、Pinecone、ElasticCloud 4 个常见的向量数据库(ElasticCloud 严格来说不属于向量数据库,但附带向量能力,在传统文本检索领域受众最广,可以视为目前传统数据库支持向量检索的代表)在同等资源及 6 组向量查询任务的同等条件下进行了对比(测试框架已开源,详见 VectorDBBench,Leaderboard)。
对比结果如下:
在查询吞吐方面,Zilliz Cloud 在全部 6 组查询任务中全面力压向量数据库 Pinecone,整体性能平均超越 2 倍以上。与此同时,Zilliz Cloud 相比 Milvus,也有将近一倍的提升,表现令人眼前一亮。ElasticCloud 作为传统文本检索服务的代表,向量查询能力主要为补充能力,这 6 组查询任务的 QPS 均在 50 以下。
查询延迟方面,Zilliz Cloud 整体在 10 ms 以下,Milvus 整体在 20 ms 以下,Pinecone 在 20-40 ms 之间,ElasticCloud 差距较为明显。
性价比方面,主要考察 Queries per dollar ( 高并发情况下,单位成本所能支持的查询请求数量 ) 。相较 Pinecone、Elastic,Zilliz Cloud 的优势十分明显。指标相比第二位的 Pinecone 最多可以高出 1 个数量级(Q1, Q2),在剩下的四组任务中普遍可以高 3 倍左右。(由于 Milvus 为开源方案,难以和商业化服务在相同标准下比较,我们在这组测试中将其移除。)
黑科技加持,软硬件性能飙升,全新内核火力全开
Zilliz Cloud 采用商业化引擎,综合性能超过 Milvus 开源引擎的 1 倍以上。引擎针对典型场景进行深度优化,性能可提升 3-5 倍。
硬件层面,Zilliz 与英伟达、英特尔等一线硬件厂商有着长期稳定的合作,向量算法内核针对 X86、ARM、GPU 进行了定制化优化。
软件层面,Zilliz Cloud 推出了 Autoindex 智能索引。智能索引根据用户的向量维度、数据规模、数据分布、查询特性进行持续的自动化调优,免去用户索引类型选型以及参数调优的痛苦。据 Zilliz 内部测试,autoindex 智能索引已经达到向量数据库专家手工调优效果的 84%,大幅超越用户的平均水平。在下一阶段,autoindex 智能索引的功能还会得到大幅度增强,支持用户指定 recall 进行优化,保证索引运行在指定查询准确度的最优点。
当然,针对最近大火的 AIGC 应用,Zilliz Cloud 也推出了专门的特性支持:
动态 schema ,可以根据 AIGC 迭代需要,灵活扩展向量特征或标签字段。
Partition Key ,支持 AIGC 应用多用户知识库的利器,相较单独建表方案,综合成本可下降 2 -3 个数量级。
支持 JSON 类型,可以将 JSON 与 embedding 这两种超强能力相结合,实现基于 JSON 与 embedding 向量的混合数据表示以及复杂的业务逻辑。
打破 “CAP” 不可能三角,给用户灵活选择
向量数据库技术发展到现在并不完美,通常情况下,业务需要在成本(Cost)、查询效果与准确度(Accuracy)、查询性能(Performance)之间做权衡,即向量数据库的 CAP 问题。目前来看,CAP 是一个不可能三角,Zilliz 的解法是在典型的位置给出局部最优解,并给用户以灵活的选择。
事实上,用户的普遍场景可以归纳为性能需求型、容量需求型与成本敏感型。为此,Zilliz Cloud 在向量数据库实例中也相应提供了三类支持:性能型、容量型和经济型。不同的实例类型由不同的算法与硬件资源组合而成,适用于不同的业务场景。
性能型实例适用于需要低延迟和高吞吐量的向量相似性检索场景,该类型的实例能够保证毫秒级的响应。
性能型实例的适用场景包括但不限于:生成式 AI、推荐系统、搜索引擎、聊天机器人、内容审核、LLM 增强的知识库、金融风控。
容量型实例可以支持的数据量是性能型的 5 倍,但查询延迟略有增加,因此适用于需要大量存储空间的场景,尤其是需要处理千万级以上向量数据的场景。
容量型实例的适用场景包括但不限于:搜索大规模的非结构化数据(如:文本、图像、音频、视频、药物化学结构等)、侵权检测、生物身份验证。
经济型实例可支持的数据规模与容量型一致,但价格优惠 7 折左右,性能略有下降,适用于追求高性价比或预算敏感的场景。
经济型实例的适用场景包括但不限于:数据标记或数据聚类、数据去重、数据异常检测、平衡训练集类型分布。
支持大模型与非结构化数据处理全生态覆盖
没有任何一套系统可以满足使用者业务上的所有需求,向量数据库也是如此。在以向量数据库为支撑的业务中,往往需要处理多道流程,包括:
业务数据的语义结构化,如从文本数据中梳理标题 embedding、内容段落的 embedding、一二级主题、阅读时间;
面向端到端效果的模型选型,如寻找能带来最佳效果的 embedding 模型选型;
模型与向量数据库的集成,如向量数据库查询驱动的原始数据召回以及后续 LLM 对召回内容的总结或重构等。
为了进一步降低应用构建成本,提供标准化组件,Zilliz Cloud 为开发者提供了双重支持:
大模型生态对接。2023 年 3 月,Zilliz 作为 OpenAI 首批向量数据库合作伙伴,完成了 Milvus 与 Zilliz Cloud 的插件化集成,被纳入官方推荐的向量数据库插件名单。不止如此,Zilliz 还与 LangChain、Cohere、LlamaIndex、Auto-GPT、BabyAGI 等热门项目进行了深度集成。此外,与国产大模型如文心一言、通义千问、智谱 AI、MiniMax、360 智脑等对接工作正在进行中,近期将会有更多成果发布。
面向非结构化数据处理流水线。Zilliz Cloud 提供了开源的 Towhee 工具框架。开发者可以在熟悉的 Python 环境,以类似 Spark 的算子语法编写自己的流水线,轻松处理文本、图片、音频、视频、化合物结构等非结构化数据的 ETL 过程。Towhee 同时提供自动化编排工具,一键在 Python 环境验证过的流水线组织成基于 Triton、TensorRT、ONNX 以及一系列硬件加速算法的服务镜像,面向如文本近似搜索、智能问答、知识库等典型场景。当然,Towhee 也提供深度优化的标准流水线。
目前,Zilliz Cloud 提供 SaaS 和 PaaS 服务,其中 SaaS 已覆盖 AWS、GCP、阿里云,PaaS 覆盖 AWS、GCP、Azure、阿里云、百度智能云、腾讯云和金山云。国内官网已同步上线,更多详情和案例可以访问 Https://zilliz.com.cn(海外官网和云服务入口:Https://zilliz.com)。
为了加速打磨业界最佳实践,我们即将启动「寻找 AIGC 时代的 CVP 实践之星」 专题活动,Zilliz 将联合国内头部大模型厂商一同甄选应用场景, 由双方提供向量数据库与大模型顶级技术专家为用户赋能,一同打磨应用,提升落地效果,赋能业务本身。如果你的应用也适合 CVP 框架,且正为应用落地和实际效果发愁,可直接申请参与活动,获得最专业的帮助和指导。(注:CVP 即 C 代表以 ChatGPT 为代表的 LLMs,V 代表 Vector DB,P 代表 Prompt Engineering,联系方式参见 business@zilliz.com)
2023 年伴随着 AGI 和 LLMs 的爆发已经过半,加速探索大模型落地之路已经迫在眉睫。行业的高度共识推动着 AI 奇点的来临,大模型将重构企业级应用,重塑人工智能产业的发展方向。Zilliz 表示,未来将持续聚焦向量数据库行业发展的最前沿,以各行各业的智能化演进为目标,为大模型时代的企业和开发者提供最具竞争力的 ” 大模型记忆体 “。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!