专为推荐工作流设计
NVIDIA Merlin
使数据科学家、机器学习工程师和研究人员能够大规模构建高性能的推荐器。 Merlin 包括库、方法和工具,通过解决常见的预处理、特征工程、培训、推理和部署到生产中的挑战,简化了推荐器的构建。 Merlin 组件和功能经过优化,可支持数百 TB
数据的检索、过滤、评分和排序,所有这些都可以通过易于使用的 API 访问。有了 Merlin ,更好的预测、更高的点击率和更快的生产部署指日可待。
可互操作的端到端解决方案
NVIDIA Merlin
,作为 NVIDIA AI 的一部分,我们致力于支持创新从业者尽最大努力。作为一种端到端解决方案, NVIDIA Merlin 组件被设计为在 CPU 或 GPU 上利用数据科学、机器学习( ML )和深度学习( DL )的现有推荐工作流中可互操作。数据科学家、 ML
工程师和研究人员能够使用单个或多个组件来加速整个推荐程序管道,从摄入、训练、推理到部署到生产。 NVIDIA Merlin 的开源组件简化了生产质量管道的构建和部署。
Merlin 模型
Merlin Models
是一个库,为推荐系统提供标准模型,并在 CPU 和 GPU 上提供从 ML 到更高级 DL 模型的高质量实现。训练模型,以便在 10 行代码内进行检索和排名。
今天就试试:
GitHub
Merlin NVTabular
Merlin NVTabular
是一个特征工程和预处理库,旨在有效地操作数 TB 的推荐系统数据集,并显著减少数据准备时间。
今天就试试:
GitHub
|
Anaconda
Merlin HugeCTR
Merlin HugeCTR
是为 GPU 上的推荐系统设计的深度神经网络框架。它提供了具有分层内存的分布式模型并行训练和推理,以实现最大的性能和可扩展性。
今天就试试:
GitHub
|
NGC™
Merlin Transformer 4Rec
Merlin Transformers4Rec
是一个库,它简化了基于会话的推荐管道的构建。该库使得在构建推荐程序时更容易探索和应用流行的 transformer 架构。
今天就试试:
GitHub
|
Anaconda
Merlin 分布式培训
Merlin 为跨多个 GPU 的分布式训练提供支持。组件包括
Merlin SOK (备用操作套件)
和
Merlin 分布式嵌入( DE )
TensorFlow ( TF )用户有权使用 SOK ( TF 1.x )和 DE ( TF 2.x )来利用模型并行性进行规模训练。
今天就试试:
GitHub
Merlin 系统
Merlin Systems
是一个简化新模型和工作流部署到生产的库。它使 ML 工程师和运营人员能够部署一个具有 50 行代码的端到端推荐程序管道。
今天就试试:
GitHub
基于 NVIDIA AI
NVIDIA AI 使数百万实践从业者和数千家公司能够使用 NVIDIA 人工智能平台来加速他们的工作负载。
NVIDIA Merlin
,是 NVIDIA AI 平台的一部分。 NVIDIA Merlin 建立在平台内并利用了额外的 NVIDIA AI 软件。
RAPIDS
RAPIDS 是一套开源软件库和 API ,完全在 GPU 上实现端到端的数据科学和分析管道。
今天就试试:
GitHub
cuDF i 是一个 Python GPU DataFrame 库,用于加载、连接、聚合、过滤和操作数据。
今天就试试:
GitHub
NVIDIA Triton 推理服务器
利用 NVIDIA Triton ™ 推理服务器通过延迟和 GPU 利用率的正确组合来最大限度地提高吞吐量,从而在 GPU '上高效地运行推理。
今天就试试:
GitHub
GTC 2022 年春季主题演讲: NVIDIA Merlin
观看 NVIDIA 首席执行官黄仁勋( Jensen Huang )讨论推荐人如何个性化互联网,并从 Snap 和腾讯微信中重点介绍 NVIDIA Merlin 用例。