[注意:这篇文章最初于2013年9月19日发布,后于2017年9月19日更新。]

Python是一种高效率的动态编程语言,广泛应用于科学,工程和数据分析等领域。导致python如此流行的原因有很多,主要有其简洁且易于理解的语法和标准的数据结构,广泛的功能齐备的标准库,优秀的文档,库和工具构成的良好的生态系统,专业支持的可用性以及大而开放的社区。也许最重要的是,像Python这样的动态类型解释语言的高效率。Python是灵活的,这使其成为可用于快速原型设计的一种很好的语言,同时也能用于构建完整的系统。

但Python最大的优势也可能是其最大的弱点:其灵活性和无类型的高级语法可能导致数据和计算密集型程序的性能不佳。因此,关心效率的Python程序员通常会用C重写最内层的循环,并从Python调用编译好的C函数。有许多旨在使此优化更容易的项目(如Cython),但它们通常需要学习新的语法。理想情况下,Python程序员希望使现有的Python代码更快,而不需要使用另一种编程语言,而且自然,很多人希望使用加速器从而使代码具有更高的性能。

Numba:高效的高性能计算

这篇文章将向您介绍基于Anaconda的Python编译器Numba,它可以编译Python代码,以便在支持CUDA在GPU或多核CPU上执行。由于Python通常不是编译语言,您可能会想知道为什么需要Python编译器。答案当然是运行本地已编译代码比运行动态解释代码快许多倍。Numba通过允许您指定Python函数的类型签名,从而在运行时进行编译(这叫“即时编译”或JIT编译)。Numba动态编译代码的能力意味着可以不失Python的灵活性。这是提供高效率编程和高性能计算的理想组合的巨大一步。

使用Numba可以编写标准的Python函数,并在支持CUDA的GPU上运行它们。Numba专为面向数组的计算任务而设计,就像广泛使用的NumPy库一样。面向数组的计算任务中的数据并行性对于像GPU这样的加速器来说是恰好适合的。Numba可以读取NumPy数组类型,并使用它们来生成有效的编译代码,用于在GPU或多核CPU上执行。所需的编程工作可以像添加函数装饰器来指示Numba为GPU编译一样简单。例如,以下代码中的@vectorize装饰器在运行时生成标量函数的一个编译的,向量化版本Add函数,以便可以在GPU上并行处理数据数组。

要在CPU上编译和运行相同的函数,我们只需将目标更改为“cpu”,从而在CPU上提供编译,向量化的C代码级别的性能。这种灵活性可以帮助您生成更多可重用的代码,并可让您在没有GPU的机器上进行开发。

Python的GPU加速库

CUDA并行计算平台的优势之一是其可用的GPU加速库的广泛性。Numba团队的另一个项目叫做pyculib,为CUDA cuBLAS(密集线性代数),cuFFT(快速傅里叶变换)和cuRAND(随机数生成)库提供了一个Python接口。许多应用程序将能够从使用这些库中得到明显加速,而无需编写任何特定于GPU的代码。例如,以下代码使用“XORWOW”伪随机数生成器在GPU上生成百万个均匀分布的随机数。

CUDA Python的大规模并行

Anaconda(以前的Continuum Analytics)认识到,在某些计算上实现大幅度加速需要一个更易于理解的编程接口,与库和自动循环向量化相比需要对并行度有更细节上的控制。因此,Numba具有另一个重要的功能,它们构成了被称为“CUDA Python”的功能。Numba公开了CUDA编程模型,就像CUDA C/C ++一样,但使用纯python语法,以便程序员可以创建自定义调优的并行内核,而不会丢失Python的舒适和优点。Numba的CUDA JIT(可通过装饰器或函数调用获得)在运行时编译CUDA Python函数,专门针对您使用的类型,其CUDA Python API提供对数据传输和CUDA流的显式控制以及其他功能。

以下代码示例使用简单的Mandelbrot集内核来示范。注意,mandel_kernel函数使用Numba提供的cuda.threadIdx, cuda.blockIdx, cuda.blockDim和cuda.gridDim结构来计算当前线程的全局X和Y像素索引。与其他CUDA语言一样,我们通过在函数名称和参数列表(mandel_kernel[griddim, blockdim](-2.0, 1.0, -1.0, 1.0, d_image, 20))之间的括号中插入一个“执行配置”(CUDA--用于运行内核的线程数和线程块)来启动内核。您还可以看到使用to_host和to_device API函数将数据复制到GPU或从GPU复制数据。

您可以在Github上获得Mandelbrot示例的完整Jupyter Notebook。

在具有NVIDIA Tesla P100 GPU和Intel Xeon E5-2698 v3 CPU的服务器上,该CUDA Python Mandelbrot代码运行速度比纯Python版本快近1700倍。1700x似乎是一个不切实际的加速,但请记住,我们进行比较的是编译并行GPU加速的Python代码与CPU上的解释型单线程Python代码。

Numba入门

Numba为Python开发人员提供了一个轻松入门GPU加速计算的途径,为越来越复杂的CUDA代码提供了最新的语法和行话。您可以从简单的函数装饰器开始来自动编译您的函数,或使用由pyculib公开的功能强大的CUDA库。当您对并行编程概念的理解提高后,当您需要对并行线程进行易于理解且灵活的控制时,CUDA可以提供帮助,而不需要您在一开始就使用。

Numba是一个BSD许可的开源项目,它本身在很大程度上依赖于LLVM编译器的功能。Numba的GPU后端使用基于LLVM的NVIDIA编译器SDK。该pyculib围绕CUDA包装的库也是BSD许可的开源项目。

要开始使用Numba,第一步是下载并安装Anaconda Python发行版,这是一个“完全免费的企业级Python发行版,用于大规模数据处理,预测分析和科学计算”,包括许多流行的包(Numpy, Scipy,Matplotlib,iPython等)和“conda”,一个强大的包管理器。安装Anaconda后,通过输入conda install numba cudatoolkit pyculib安装所需的CUDA包。然后在ContinuumIO github资源库中查看CUDA的Numba教程。我也建议您在Anaconda博客上查看关于Numba的帖子。

英文原文:https://devblogs.nvidia.com/parallelforall/numba-python-cuda-acceleration/

译者:Chara

python numba cuda_Numba:基于CUDA加速的高性能Python相关推荐

  1. python编写游戏加速器_Numba:用CUDA加速的高性能Python编译器

    [IT168 编译]Python是一种高效的动态编程语言,广泛应用于科学.工程和数据分析应用领域.使python如此受欢迎的因素有很多,包括其干净的.表达性的语法和标准的数据结构,综合的"内 ...

  2. python numba库是什么,如何给python代码加速?JIT、autoit、LLVM

    参考文章1:一行代码让Python的运行速度提高100倍 参考文章2:[Python技巧]如何加快循环操作和Numpy数组运算速度 示例:遍历深度图的每个像素值是否为0,不用jit,要多耗时约500m ...

  3. python缓存技术_如何写出高性能Python之缓存的应用?

    缓存有什么作用? 能看到这篇文章的同学,应该都对缓存这个概念不陌生,CPU中也有一级缓存.二级缓存和三级缓存的概念.缓存可以解决哪些问题?我们直接把网上的一段话放上来: 性能--将相应数据存储起来以避 ...

  4. 基于CUDA的GPU并行计算技术实现网课课表编排

    这篇文章是用来填这个坑的:https://blog.csdn.net/xinew4712/article/details/108276264 上篇文末设想的是用天灾和定向改造机制来提高排课运算的效率, ...

  5. Python Numba实现GPU加速

    Python与GPU Python作为解释型语言,.py文件一般是没法直接用GPU加速的,关于Python与GPU的结合点,以及GPU.CPU.CUDA.多核.并行.机器码-等底层实现,参考: < ...

  6. 【Python-GPU加速】基于Numba的GPU计算加速(一)基本

    Numba是一个可以利用GPU/CPU和CUDA 对python函数进行动态编译,大幅提高执行速度的加速工具包. 利用修饰器@jit,@cuda.jit,@vectorize等对函数进行编译 JIT: ...

  7. linux下载python numba,安装numba和使用numba加速python程序

    这是从其他博客粘贴过来,备份的.原文在:http://www.cnblogs.com/freeweb/p/6652607.html 使用Cython来加速python程序的运行速度,但是相对来说程序改 ...

  8. Python Numba CPU下加速

    Python代码加速 主要考虑代码优化加速,而非代码逻辑优化. Python代码直接运行GPU是不行的,需要一定的改变,Numba是一个接口,不过本文主要针对CPU下的Python代码加速. Pyth ...

  9. CUDA和cuDNN到底是啥关系?(cuDNN是基于CUDA的深度学习GPU加速库)

    1.什么是CUDA CUDA(ComputeUnified Device Architecture),是显卡厂商NVIDIA推出的运算平台. CUDA是一种由NVIDIA推出的通用并行计算架构,该架构 ...

最新文章

  1. PAT(甲级)2018年秋季考试 7-1 Werewolf - Simple Version
  2. redis-4.0.1安装配置(CentOS 6.6)
  3. 动态规划算法php,php算法学习之动态规划
  4. springboot使用TemplateEngine修改邮箱后发送验证码示例
  5. linux系统下常用的打包/解压缩包命令
  6. c#编程指南(四) 组元(Tuple)
  7. 小狼程序员:工作遐想
  8. JAVA程序错误总结
  9. 春节临近|传统彩色手绘年画素材,满满东方韵味
  10. Java面向对象编程 第一章 面向对象开发方法概述
  11. Visual Studio Code 支持TensorFlow配置支持
  12. 我新买的GTX1050为何装上去一直是黑屏
  13. 聚集索引与非聚集索引及其查询效率【转载】
  14. oracle 方案概念
  15. mysql 一张表连两次_MySQL查询两次和双表联查哪个效率高
  16. java 中 枚举 大括号 用法
  17. Aliyun平台Nginx+Mysql+Redis部署easyboot
  18. Mantle Introduce
  19. 联通光猫nat -虚拟服务器,科学折腾 篇一:长春联通光猫改软路由拨号
  20. 【文献摘录】FaceRevelio: A Face Liveness Detection System forSmartphones with a Single Front Camera

热门文章

  1. css中img如何定位,使用CSS定位img
  2. 基于vue3+springboot的个人博客系统
  3. ip地址 子网掩码与默认网关
  4. Mysql xtrabackup备份
  5. 河池南丹亩产500公斤 国稻种芯·中国水稻节:广西米新品种
  6. css3制作旋转相册、骰子
  7. HTTP常见的状态码及解决方案详解。
  8. OLS回归分析原理实战及结果解析-python3
  9. OWASP 十大漏洞研究
  10. Tomcat 爆出高危漏洞及修复