官宣:助力企业高质量全球化,Zilliz Cloud在 Azure 印度区正式开服!

好消息!Zilliz Cloud 现已在 Azure 印度上线啦。
近些年来,随着印度本土的AI、互联网、电商产业不断发展,越来越多的企业和创业公司正积极探索如何用数据和智能化技术来提升业务效率。
这个市场充满了机会,年轻人口庞大,技术人才丰富,企业对高效数据处理和智能化分析的需求也日益增加。
与此同时,印度在全球科技创新版图中越来越占据重要地位,成为跨国企业竞相布局的战略市场。
对于有意出海印度以及印度本土客户来说,Zilliz Cloud 的 Azure 新节点的上线,能够帮助他们在本地部署和管理自己的数据,享受更低的延迟与成本、更快的响应速度。同时,更好地满足合规性要求、实现真正的业务本土化。
01 目前你可以在哪些地区享受Zilliz Cloud服务
算上本次新开节点,Zilliz Cloud 目前已覆盖 AWS、Google Cloud 和 Microsoft Azure 、阿里云、腾讯云上的26大节点。
客户可以根据用户分布、数据存放位置和预算情况,选择最合适的部署地点。
Zilliz Cloud 全球可用区域:
AWS:美国东部(北弗吉尼亚)、美国东部(俄亥俄)、美国西部(俄勒冈)、加拿大(中部)、德国(法兰克福)、新加坡、日本(东京)、中国(宁夏中卫)
Google Cloud:美国西部(俄勒冈)、美国东部(弗吉尼亚)、美国中部(爱荷华)、德国(法兰克福)、新加坡
Azure:美国东部(弗吉尼亚)、美国东部 2(弗吉尼亚)、美国中部(爱荷华)、德国西部(法兰克福)、印度中部(新上线!)
阿里云:华东1(杭州)、华东2(上海)、华北2(北京)、华南1(深圳)、美国(弗吉尼亚)
腾讯云:华北地区(北京)、华东地区(上海)、美国东部(弗吉尼亚)
通过在本地部署,企业可有效降低延迟和数据出口成本,同时满足日益增长的数据主权和本地化处理需求。此外,借助 Zilliz Cloud,在全球扩展 AI 搜索基础设施将不再是复杂任务。
02 印度本土客户如何借助Zilliz Cloud+Azure实现智能化转型
Sarvam 是印度增长最快的生成式 AI 初创公司,专注于构建多语言大语言模型(LLM)。
为什么锚定多语言大语言模型这个赛道?这与印度的文化背景息息相关。
印度是一个多民族、多语言国家,仅仅语言层面,印度就有22种官方语言,涵盖了印欧语系和达罗毗荼语系等多个语系。其中,南印度的主要语言包括泰米尔语、泰卢固语、卡纳达语和马拉雅拉姆语,这些语言都是印度的德拉威语系;而北印度的主要语言则是印地语(Hindi)及其方言,整体差异巨大。
而“Sarvam”一词的本意源自梵语,意为“一切”,而这也是这家公司的创业背景与目标之所在:让每一位印度人都能接触并使用 AI,无论他们在德里说印地语,还是在金奈说泰米尔语。
依靠符合当地国情的创业模式,不到两年时间,Sarvam 就从 Lightspeed Venture Partners、Peak XV Partners 等顶级投资机构筹集了4100万美元,并被印度政府选中,作为 IndiaAI 国家战略的一部分,负责开发印度首个主权大语言模型。
但是,为印度这样多语言、多文化的国家构建 AI 系统,面临着语言、文化和语境复杂性的重大挑战。虽然现有大语言模型(LLMs)在英语等主流语种上表现良好,但面对使用较少、训练数据不足的印度语言时,往往无法泛化,导致幻觉(hallucinations)、误解和用户信任的流失。
Sarvam 的解决方式是围绕 Sarvam-M 模型构建了一个基于维基百科的 RAG(检索增强生成)系统,在生成回答前先从维基百科检索相关信息,降低幻觉发生率,特别适用于本地文化和语言特定的问题。启用该功能后,一位旁遮普邦的农民可以用旁遮普语提问并获得准确答案,一位班加罗尔的学生可以用印地语查询复杂主题并得到维基百科支持的回答。
但要将整个维基百科知识库转化为可实时搜索的向量集合,并不是一件容易的事。他们的要求是:支持 3584 维向量,40-50 QPS 的吞吐量,延迟小于 300ms。
而 Zilliz Cloud 完美符合以上需求,还解决了负载不均和手动运维问题,并为 Sarvam提供了强大的混合搜索能力——对 Sarvam 的多语言场景来说极为关键——用户科技将向量搜索(用于语义相似性)与全文搜索(用于关键词匹配)结合使用。该功能对需要同时兼顾语义和特定术语的应用场景非常有用,例如“必须包含「紧急」一词”与“查找相似工单”。
此外,在Sarvam 看来,Zilliz Cloud的优势还有以下几个:
Cardinal 引擎——更低成本、更高效率
Zilliz Cloud 的 Cardinal 搜索引擎和智能编排工具专为高效、灵活和可扩展的应用而设计。通过全新架构,能够快速、精准地处理数十亿向量。它结合了智能索引策略与计算感知调度,在优化资源的同时确保提供超快的搜索速度。
借助 Cardinal,Zilliz Cloud 可将总体拥有成本降低最高 70%,同时提供超越自研向量方案或通用数据库的卓越性能。
按需扩展
Zilliz Cloud 采用水平可扩展架构,团队可轻松进行扩展,无需担忧过度配置或频繁调整配置。
定制计算资源
Zilliz Cloud 提供多种计算单元(CU)类型,用户可根据工作负载选择最合适的资源组合。每种 CU 类型具备不同的 CPU、内存和存储配置,确保用户仅为实际所需资源付费。
企业级安全保障
Zilliz Cloud 提供基于角色的访问控制(RBAC)、静态和传输中数据加密、审计日志以及 SOC 2 合规性,确保用户数据从一开始就受到严格保护,并符合行业标准。
尾声
如果您正在探索印度市场,我们在 Azure 中央印度区的新区域已上线,随时可以支持您的部署。具体方式,只需登录 Zilliz Cloud,并在创建新集群时选择“Central India”区域即可。
技术干货
一次解决三大成本问题,升级后的 Zilliz Cloud 如何造福 AIGC 开发者?
对于应用开发而言,成本问题向来是企业和开发者关注的重点,更迭迅速、变化莫测的 AIGC 时代更是如此。这里的成本既指软件开发成本,也包括硬件成本、维护成本。Zilliz Cloud 可以一次性解决这三大问题,帮助开发者降低开发成本、优化硬件成本、减少维护成本。
2023-7-6技术干货
LLMs 诸神之战:LangChain ,以【奥德赛】之名
毫无疑问,大语言模型(LLM)掀起了新一轮的技术浪潮,成为全球各科技公司争相布局的领域。诚然,技术浪潮源起于 ChatGPT,不过要提及 LLMs 的技术发展的高潮,谷歌、微软等巨头在其中的作用不可忽视,它们早早地踏入 AI 的技术角斗场中,频频出招,势要在战斗中一争高下,摘取搜索之王的桂冠。而这场大规模的 AI 之战恰好为 LLMs 技术突破奏响了序曲。LangChain 的加入则成为此番技术演进的新高潮点,它凭借其开源特性及强大的包容性,成为 LLMs 当之无愧的【奥德赛】。
2023-5-17技术干货
向量数据库的行业标准逐渐清晰!Vector DB Bench 正式开源!
本文将从 Vector DB Bench 的特点和优点出发,帮助开发者全面、客观、高效地评估向量数据库。
2023-6-21