2024-08-15 23:27

Databricks和NVIDIA深化合作,利用数据智能平台加速数据和人工智能工作负载

  

  旧金山2024年3月19日/美通社/——数据和人工智能公司Databricks今天在NVIDIA旗舰GTC 2024大会上宣布扩大与NVIDIA的合作,并承诺与NVIDIA进行更深入的技术集成。Databricks和NVIDIA将共同优化Databricks数据智能平台上的数据和人工智能工作负载。此次合作建立在NVIDIA最近参与Databricks第一轮融资的基础上。

  Databricks联合创始人兼首席执行官Ali Ghodsi表示:“我们对与NVIDIA合作伙伴关系的发展感到兴奋,通过NVIDIA加速计算和软件的Databricks工作负载的进步,我们将为客户带来更多价值。”从分析用例到人工智能,NVIDIA已经为我们的基础模型计划提供了支持,通过我们在查询加速方面的共同努力,我们将能够为更多企业展示价值。”

  英伟达创始人兼首席执行官黄仁勋表示:“在人工智能时代,每家公司的专有数据都是创造智能的关键资产。“通过加速数据处理,NVIDIA和Databricks可以加速人工智能的开发和部署,帮助企业以更高的效率寻求更大的洞察力和更好的结果。”

  组织正在迅速采用Databricks的数据智能平台来构建和定制基于其数据的生成式人工智能解决方案,并根据其业务和领域量身定制。Databricks Mosaic AI和NVIDIA正在合作进行模型训练和推理,以推进在Databricks端到端平台上构建和部署生成式AI模型的状态。Databricks提供了一套全面的工具,用于构建、测试和部署生成式人工智能解决方案,并对数据和模型进行不妥协的控制和治理。

  对于生成式AI模型训练,Databricks Mosaic AI依赖于NVIDIA H100 Tensor Core gpu,该gpu针对开发llm进行了优化。Mosaic AI能够利用NVIDIA加速计算的强大功能,为客户定制llm提供高效且可扩展的平台。

  对于模型部署,Databricks在整个堆栈中利用了NVIDIA加速计算和软件。Databricks马赛克AI模型服务的一个关键组件是NVIDIA TensorRT-LLM软件,它提供了最先进的性能,并确保解决方案具有成本效益,可扩展和高性能。Mosaic AI是TensorRT-LLM的启动合作伙伴,并与NVIDIA团队进行了密切的技术合作。

  Databricks计划在其下一代矢量化查询引擎Photon中开发对NVIDIA加速计算的本地支持,以提高客户数据仓库和分析工作负载的速度和效率。Photon支持Databricks SQL, Databricks的无服务器数据仓库具有行业领先的性价比和TCO。这是基于Databricks客户使用gpu对其数据进行查询处理的增长。

  基于Databricks的机器学习(ML)和深度学习一直是关键的工作负载。Databricks机器学习提供预构建的深度学习基础设施,包括NVIDIA GPU, Databricks运行时为ML包括预配置的GPU支持,包括驱动程序和库。有了这些工具,用户既可以快速开始使用正确的NVIDIA基础架构,又可以在不同用户之间保持环境的一致性。Databricks在所有三个主要云上支持NVIDIA Tensor Core gpu,为ML工作负载实现高性能单节点和分布式训练。

  两家公司计划进一步推动数据智能平台的发展势头,使更多的组织能够以高质量、快速和敏捷的方式创建下一代数据和人工智能应用程序。

  Databricks是一家数据和人工智能公司。全球超过10,000家组织(包括Comcast、condnast、Grammarly和超过50%的财富500强企业)依靠Databricks数据智能平台来统一和普及数据、分析和人工智能。Databricks总部位于旧金山,在全球各地设有办事处,由Lakehouse, Apache Spark?,Delta Lake和MLflow的原始创建者创建。要了解更多信息,请关注linkedIn、X和Facebook上的Databricks。

  新闻联系:press@databricks.com

  分享本文

本内容为作者翻译自英文材料或转自网络,不代表本站立场,未经允许不得转载
如对本稿件有异议或投诉,请联系本站
想要了解世界的人,都在 九九叭

相关推荐