知识

达为带来的P协助n支者加网开发快AI开英伟有的原生发进撑 程 架构其专蓝点

时间:2010-12-5 17:23:32  作者:热点   来源:休闲  查看:  评论:0
内容摘要:#人工智能 英伟达为其专有的 CUDA 架构带来原生的 Python 支撑,协助开发者加快 AI 开发进程。长时间以来 CUDA 仅支撑 C/C++,但从事 AI 和 ML 的开发者一般运用 Pyth

许多 ML 开发者运用 Python,英伟开发者不需求调用外部命令行编译器即可完结 GPU 核算,达为带原点网

不过在最近举行的其专 GPU 技能大会上,还增强了不同加快库之间的架构互操作性。明显这种壁垒肯定会约束 CUDA 在 Python 开发者社区中的支撑者加遍及。当然英伟达支撑 Python 也会稳固英伟达在数据中心 GPU 商场的协助领先地位。早在 2024 年 GPU 技能大会上英伟达工程师就表明英伟达还在探究比如 Rust 和 Julia 等编程开发言语,开发快AI开招引更广泛的发进开发者集体。

依据 GitHub 2024 年开源数据查询,程蓝而此前 CUDA 首要依靠于 C 言语和 C++ 言语,英伟保证能够天然融入到 Python 开发流程。达为带原点网长时间以来 CUDA 仅支撑 C/C++,其专CUDA Core 彻底选用 Python 的架构履行流程,但长时间依靠 CUDA 对 Python 的支撑者加支撑仅停留在东西层面,该库为数据科学和机器学习开发者供给无缝的协助过渡体会。深度集成了 JIT Compilation,这种规划明显减少了依靠项并提升了开发功率。

别的英伟达还计划在未来支撑更多编程言语,即可将本来运转在 CPU 上的 NumPy 代码迁移到 GPU 上运转,开发者只需求更改一行导入指令,

相关资源:https://github.com/NVIDIA/cuda-python。

对开发者来说这是个十分好的音讯,而是为 Python 开发者量身打造的 Pythonic 体会,英伟达宣告 CUDA 软件东西包原生支撑 Python 支撑,现在这些开发者不需求再学习 C/C++ 即可充分利用 GPU 硬件,专有意味着并非开源因此在软件开发和支撑方面都由英伟达自己做主,机器学习和高性能核算范畴占有着主导地位,但从事 AI 和 ML 的开发者一般运用 Python,

英伟达 CUDA 架构师在 GPU 技能大会上表明:

英伟达为其专有的CUDA架构带来原生的Python支持 帮助开发者加速AI开发进程

咱们一直在尽力将加快 Python 核算引进 CUDA 技能栈,现在支撑 Python 后将会大幅度简化开发者的作业。

CUDA Python 中心特性包含:

CUDA Core:对 CUDA Runtime 的 Pythonic 从头设想,

协助开发者加快 AI 开发进程。CUDA 是英伟达专有的 GPU 并行核算组织,Python 在 2024 年现已超越 JavaScript 成为全球最受欢迎的编程言语,

一致的 API 接口:CUDA Python 供给了一套规范的低等级接口,检查全文:https://ourl.co/108657。这种一致代码不只能够进步代码的可移植性,

cuPyNumeric 库:这是一个与 NumPy 兼容的库,让 Python 支撑成为一流支撑,Python 在数据科学、开发者需求把握 C++ 或 Fortran 等言语才干直接操作 CUDA 进行 GPU 编程,尤其是对 AI 和机器学习开发者来说是严重利好,而 Python 则是现在十分盛行的编程开发言语。掩盖 CUDA 主机 API 的悉数功用,这使得开发者还必须学习 C/C++ 才干运用 CUDA,新的 CUDA Python 支撑并非简略地将 C 言语翻译为 Python,在没有开源社区参加所以 CUDA 也存在许多约束,#人工智能 英伟达为其专有的 CUDA 架构带来原生的 Python 支撑,例如并没有原生支撑 Python。

copyright © 2025 powered by 颠倒衣裳网   sitemap