Alluxio作为一家承载各类数据驱动型工作负载的数据平台公司,现推出全新的Alluxio Enterprise AI高性能数据平台, 旨在满足人工智能 (AI) 和机器学习 (ML) 负载对于企业数据基础设施不断增长的需求。 Alluxio Enterprise AI 平台可综合优化企业AI和分析基础设施的性能、数据可访问性、可扩展性和成本效益,助力生成式AI、计算机视觉、自然语言处理、大语言模型和高性能数据分析等下一代数据密集型应用的发展。
为保持竞争力并在竞争中脱颖而出,各家企业都在全力推进数据和AI基础设施的现代化。在此过程中,企业家们也意识到传统的数据基础设施已经无法匹配下一代数据密集型AI负载的需求。在AI项目推进中经常遭遇的各类挑战,诸如性能低下、数据可访问性差、GPU 稀缺、数据工程复杂以及资源未充分利用等,都严重妨碍了企业获取数据价值。 Gartner® 研究称,“可操作AI的价值在于能够在企业的各种环境下进行快速开发、部署、调整和维护。考虑到工程复杂性和更快的市场响应需求,开发较为灵活的AI工程数据流,构建能够在生产中进行自适应的AI模型均至关重要” ,“到 2026 年,采用AI工程来构建和管理自适应AI系统的企业,将在AI模型可操作性方面至少超越同行 25%。”
Alluxio 创始人兼CEO李浩源表示:“Alluxio用最先进的大数据和Al平台为全球头部企业客户赋能,今天我们又向前迈出了一大步”, “Alluxio Enterprise AI 为客户提供高效的AI 解决方案,帮助企业加速 AI工作负载并最大限度地获取数据价值。未来的企业领导者将知道如何利用变革性AI来推进数据驱动,通过最新技术来构建和维护AI基础设施,实现超高性能、无缝访问和便捷管理。”
此次新版发布后,Alluxio 即从一种产品扩展到两种产品组合——Alluxio Enterprise AI 和 Alluxio Enterprise Data,全面满足分析和AI的多样化需求。Alluxio Enterprise AI作为一款全新产品,建立在Alluxio企业版多年积累的分布式系统经验上,采用了针对AI/ML负载优化的新架构。 Alluxio Enterprise Data 是 Alluxio 企业版大数据方向的下一代版本(与Alluxio Enterprise AI平行),并将继续成为专注分析负载企业的理想选择。
加速端到端机器学习工作流
Alluxio Enterprise AI 使得企业的AI基础设施能够在现有数据湖上实现高性能运行、无缝数据访问、可扩展且经济高效。它能帮助数据和AI领域的领导者和从业者实现AI项目的四个关键目标:1.高性能模型训练和部署,快速产生业务成效;2.跨区域和跨云负载可无缝访问数据;3.可无限扩展,已经互联网巨头内部严格测试;4. 无需使用昂贵的专用存储,在现有技术栈上即可部署,确保投资回报最大化。企业使用 Alluxio Enterprise AI后,预期训练速度可比使用提供商业服务的对象存储快达 20 倍,模型服务速度提升高达10 倍,GPU利用率达90%以上,AI 基础设施成本节约高达 90%。
Alluxio Enterprise AI 拥有包含去中心化元数据的分布式系统架构,可消除访问海量小文件(常见于AI 负载)时的性能瓶颈。无论文件大小或数量如何,都能确保具备超越传统架构的无限扩展性。与传统分析不同,分布式缓存是根据 AI 负载 I/O 模式量身定制的。此外,还支持分析负载以及从数据摄取到 ETL(提取、转换、加载)、预处理、训练和服务的完整机器学习工作流 。
Alluxio Enterprise AI 包含以下重要特性:
- 性能出色的模型训练和模型服务——Alluxio Enterprise AI 显著提升企业在现有数据湖上的模型训练和服务性能。用于模型训练的强化API 集可实现优于商业化对象存储20 倍的性能。对于模型服务,Alluxio 提供超高并发性,在将离线训练集群中的模型用于在线推理时实现高达10 倍的速度提升。
- 适合AI工作负载I/O模式的智能分布式缓存——Alluxio Enterprise AI的分布式缓存功能使得AI引擎能够通过高性能Alluxio缓存(而非缓慢的数据湖存储)来读写数据。 Alluxio的智能缓存策略专门针对AI引擎的I/O模式量身定制,包括大文件顺序访问、大文件随机访问和海量小文件访问。该优化帮助需要大量数据的GPU实现高吞吐和低延迟。训练集群持续从高性能分布式缓存中获取数据,可实现90%以上的GPU利用率。
- 跨本地和云环境的AI 工作负载实现无缝数据访问 - Alluxio Enterprise AI 为企业提供了统一的管理界面,可以轻松管理跨不同基础设施环境的 AI 工作负载。该产品为机器学习工作流提供了真实的数据源,从根本上消除了大型企业数据湖孤岛的瓶颈。通过 Alluxio Enterprise AI 这一标准数据访问层,企业可以在不同业务部门和地理位置之间实现数据的无缝共享。
- 经过大规模严格测试的全新分布式系统架构 - Alluxio Enterprise AI 平台构建在创新的去中心化架构 DORA(去中心化对象存储库架构)之上。该架构为AI工作负载提供了无限扩展的基础,允许 AI 平台通过包括Amazon S3 在内的商业化对象存储处理多达 1000 亿个对象。该新架构借助Alluxio在分布式系统方面的成熟专业知识,解决了系统可扩展性、元数据管理、高可用性和性能方面不断增长的挑战。
Enterprise Strategy Group 分析师 Mike Leone 表示:“随着组织在整个业务范围内扩展AI的应用,优化下一代工作负载过程中的性能、成本和 GPU 利用率变得至关重要” ,“Alluxio 拥有极具优势的产品,能真正帮助数据和 AI 团队实现更高的性能、无缝的数据访问,以及模型训练和模型服务的便捷管理。”
“我们与 Alluxio 合作密切,Allxuio平台对我们的数据基础设施至关重要,”Aunalytics 分析云工程总监 Rob Collins表示, “Aunalytics对于Alluxio新推出的针对企业AI的分布式系统十分期待,并看好新产品在AI 行业的巨大潜力。”
“公司内部训练的大语言模型为我们的问答应用和推荐引擎提供支持,极大地增强了用户体验和参与度”,知乎数据平台团队软件工程师胡梦宇表示, “在我们的AI基础设施中,Alluxio 处于核心地位。在使用 Alluxio 作为数据访问层后,我们的模型训练性能提升了3 倍,部署性能提升了10 倍,GPU 利用率翻倍。Alluxio的Enterprise AI平台采用全新的DORA架构,能支持访问海量小文件,对此我们十分期待。在AI浪潮即将到来的时刻,Alluxio新产品让我们在支持AI应用方面更有信心。”
在机器学习工作流中部署Alluxio
Gartner 研究显示,数据可访问性和数据量/复杂性是组织应用AI技术中遇到的三大难题之一。 Alluxio Enterprise AI可以添加到由AI计算引擎和数据湖存储组成的已有AI基础设施中。 Alluxio 位于计算和存储中间,可以在机器学习工作流中跨模型训练和模型服务工作,从而实现最大速度和最优成本。例如,将 PyTorch 作为训练和服务引擎, Amazon S3为现有数据湖:
- 模型训练:当用户训练模型时,PyTorch数据加载器从虚拟本地路径/mnt/alluxio_fuse/training_datasets加载数据集。数据加载器不会直接从 S3 加载数据,而是从 Alluxio 缓存加载。在训练过程中,缓存的数据集将在多个epoch中使用,因此整个训练速度不再受制于访问S3而产生的瓶颈。也就是说,Alluxio通过缩短数据加载来加速训练,消除GPU空闲等待时间,提高GPU利用率。模型训练完成后,PyTorch通过Alluxio将模型文件写入S3。
- 模型服务:最新训练的模型需要部署到推理集群。多个TorchServe实例同时从S3并发读取模型文件。Alluxio会缓存这些来自S3的最新模型文件,并以低延迟提供给推理集群。因此,最新模型一旦可用时,下游的AI应用即可将其用于推理。
平台与现有系统集成
要将Alluxio与现有平台集成,用户可以在计算引擎和存储系统之间部署Alluxio集群。在计算引擎侧,Alluxio 可与 PyTorch、Apache Spark、TensorFlow 和 Ray 等流行的机器学习框架无缝集成。企业可以通过 REST API、POSIX API 或 S3 API 将 Alluxio 与这些计算框架集成。
在存储侧,Alluxio 可连接位于任何位置(本地、云端或两者兼有)的各类文件系统或对象存储。支持的存储系统包括 OSS、COS、BOS、OBS、Amazon S3、Google GCS、Azure Blob Storage、MinIO、Ceph、HDFS等。
Alluxio 可在本地和云端、物理机或容器化环境中运行。支持的云平台包括阿里云、腾讯云、百度云、华为云、AWS、GCP、Azure Cloud等。
下载资源
Alluxio Enterprise AI 下载链接:https://www.alluxio.com.cn/product/download/