JFrog推出面向Hugging Face的原生集成,为 ML 模型提供强大支持,实现DevOps、安全和AI的协调统一
DevOps 团队、ML 工程师和数据科学家现可放心地存储、保障、治理和管理AI组件,包括业界首个检测恶意ML模型的平台
2023年12月5日 —— 流式软件公司、企业软件供应链平台提供商JFrog推出ML模型管理功能,这是业界首套旨在简化机器学习(ML)模型管理和安全性的功能。JFrog 平台中的全新ML模型管理功能使AI交付与企业现有的 DevOps 和 DevSecOps 实践保持一致,从而加速、保护和管理ML组件的发布。
JFrog 联合创始人兼首席技术官 Yoav Landman 表示:”如今,数据科学家、ML工程师和 DevOps 团队在交付软件方面没有通用的流程。这往往会导致团队之间发生摩擦,造成一定规模的困难,以及整体产品组合在管理和合规性方面缺乏标准。如果没有 Python 及其所依赖的软件包,机器学习模型制品是不完整的,且通常使用 Docker 容器为其提供服务。我们的客户已经将JFrog视为制品管理和DevSecOps流程的黄金标准。数据科学家和软件工程师开发了现代化AI功能,他们已经是 JFrog 的原生用户。随着我们将机器学习模型管理以及模型安全性和合规性引入统一的软件供应链平台,以帮助他们在AI时代大规模交付可信软件,因此,此次发布也就顺理成章地成为下一步举措。”
越来越多用户使用AI和 ML。IDC 研究表明,包括软件、硬件和服务在内的全球 AI/ML 市场预计将在 2023 年增长 19.6%,超过 5000 亿美元。然而,随着越来越多的 ML 模型投入生产,最终用户往往面临着成本、缺乏自动化、缺乏专业知识以及扩展能力等方面的挑战。[1]
IDC DevOps 与 DevSecOps 研究副总裁 Jim Mercer 表示:“将 ML 模型从头到尾部署到生产中需要耗费大量时间和精力。然而,即使投入生产,用户也会面临模型性能、模型漂移和偏差等挑战。因此,拥有一个单一的记录系统,帮助实现ML模型的自动开发、持续管理和安全性,所有其他组件打包到应用程序中,这样就能够为优化流程提供一个令人信服的替代方案。”
使用 JFrog 全新 ML 模型管理功能,企业能够:
- 代理常用的公共 ML 仓库 Hugging Face,缓存公司所依赖的开源 AI 模型,使其更贴近开发和生产,防止删除或修改。
- 检测并阻止恶意 ML 模型的使用。
- 扫描 ML 模型许可证,确保其符合公司政策。
- 存储自行开发或内部增强型 ML 模型,并配置强大的访问控制和版本历史记录,以提高透明度。
- 将 ML 模型作为任何软件版本的一部分进行打包和分发。
JFrog产品与工程高级副总裁Yossi Shaul表示:“越来越多的企业开始将ML模型纳入其应用程序中,而且随着一些政府法规要求软件供应商明确列出其软件中的内容,我们相信不久后这些指导方针也将涵盖 ML和 AI 模型。我们很高兴能为客户提供代理、存储、保障和管理模型以及其他软件组件的简便方法,帮助他们加快创新步伐,同时为未来需求做好充分准备。”
[1] IDC,《MLOps — ML 与 DevOps 的结合》,作者:DevOps 与 DevSecOps 研究副总裁 Jim Mercer,2022 年 3 月
https://www.idc.com/getdoc.jsp?containerId=US48544922&pageType=PRINTFRIENDLY