Nvidia RAPIDS加速了分析和机器学习


【Nvidia RAPIDS加速了分析和机器学习】今天在慕尼黑举行的GPU技术大会上,由视频/图形公司转型为人工智能(AI)巨头的英伟达(Nvidia)在人工智能方向上又向前迈进了一步 。
不过这一次,Nvidia并没有发布新的图形处理单元(GPU)平台,也没有发布新的用于深度学习的专用SDK,而是发布了一套新的用于GPU加速分析和机器学习(ML)的开源库 。
NVIDIA(英伟达)从图形和游戏到AI(人工智能)和deep learningAlso(深度学习)
新的库集将提供Python接口,类似于Scikit Learn和panda提供的接口,但它将利用公司的CUDA平台在一个或多个gpu上加速 。
英伟达人工智能基础设施主管曾俊欣(Jeff Tseng)周二通过电话向一些科技采访人员表示,与只使用cpu的实现相比,使用RAPIDS的训练时间提高了50倍 。(这个速度是在Nvidia DGX-2系统上涉及XGBoost ML算法的场景中测量的,不过没有明确讨论CPU硬件配置 。)
显然,Integrations和partnersRAPIDS合并了内存中的柱状数据技术Apache Arrow,并被设计为在Apache Spark上运行 。考虑到后者,该公司从逻辑上获得了Databricks的支持,后者将把RAPIDS集成到自己的分析和人工智能平台中 。
不过,Databricks并不是唯一支持RAPIDS平台的大牌公司 。Python全明星巨蟒,IBM、惠普企业和甲骨文等科技巨头也在行动 。
当您分别从RAPIDS网站和NVIDIA GPU云容器注册表中以源代码和Docker容器形式阅读本文时,应该已经下载了nowRAPIDS 。
这篇文章更新于太平洋时间10月11日上午9点29分 。原帖称,10月9日星期二,英伟达首席执行官黄延森向媒体介绍了RAPIDS的情况 。事实上,这个简报是英伟达人工智能基础设施主管曾俊欣(Jeff Tseng)做的 。

    推荐阅读