Numba是一个针对Python的开源JIT编译器,由Anaconda公司主导开发,可以对Python原生代码进行CPU和GPU加速。Numba对NumPy数组和函数非常友好。
使用Numba非常方便,只需要在Python原生函数上增加一个装饰器(Decorator)。Numba会将这些函数使用即时编译JIT方式编译成机器码,这些代码将以近乎机器码的速度运行。
1.CPU加速:
只用1行代码即可加速,对loop有奇效
在函数前面加一个@nb.jit 其他不用变
import numba as nb
import numpy as np
#把数据导入到data里面
f = open(r'source.txt')
data = f.read().split(" ")
while '' in data:
data.remove('')
data = np.array(data, dtype = int)
#定义nb_func函数
@nb.jit
def cpu_func(out,data):
for i in range(1200):
for j in range(762):
for k in range(128):
for n in range(128):
order = round((((i * i + (j - k * 6) * (j - k * 6)) ** 0.5 + (i * i + (j - n * 6) * (j - n * 6)) ** 0.5) * 0.05) / 1.54 * 30)
if (order < 2000):
out[j][i] = out[j][i] + data[k * 2000 + order]
#定义一个二维数组存放重建图像
out = np.zeros([762,1200])
cpu_func(out,data)
print(data)
耗时大约75s(c++编程在不加速的情况下需要20分钟)
输出:
2.GPU加速:
与传统的Python CPU代码不同的是:
-
使用
from numba import cuda
引入
cuda
库 -
在GPU函数上添加
@cuda.jit
装饰符,表示该函数是一个在GPU设备上运行的函数,GPU函数又被称为
核函数
。 -
主函数调用GPU核函数时,需要添加如
[1, 2]
这样的
执行配置
,这个配置是在告知GPU以多大的并行粒度同时进行计算。
gpu_func[1, 2]()
表示开启一个block块,每个block块开启2个线程并行地执行
gpu_func
函数,函数将被并行地执行2次。 -
GPU核函数的启动方式是
异步
的:启动GPU函数后,CPU不会等待GPU函数执行完毕才执行下一行代码。必要时,需要调用
cuda.synchronize()
,告知CPU等待GPU执行完核函数后,再进行CPU端后续计算。这个过程被称为
同步。
Thread层次结构:
CUDA将核函数所定义的运算称为
线程(Thread)
,多个线程组成一个
块(Block)
,多个块组成
网格(Grid)
。这样一个Grid可以定义成千上万个线程,也就解决了并行执行上万次操作的问题。例如,把前面的程序改为并行执行8次:可以用2个Block,每个Block中有4个Thread。原来的代码可以改为
gpu_func[2, 4]()
,其中方括号中第一个数字表示整个Grid有多少个Block,方括号中第二个数字表示一个Block有多少个Thread。
CUDA提供了一系列内置变量,以记录Thread和Block的大小及索引下标。以
[2, 4]
这样的配置为例:
blockDim.x
变量表示Block的大小是4,即每个Block有4个Thread,
threadIdx.x
变量是一个从0到
blockDim.x - 1
(4-1=3)的索引下标,记录这是第几个Thread;
gridDim.x
变量表示Grid的大小是2,即每个Grid有2个Block,
blockIdx.x
变量是一个从0到
gridDim.x - 1
(2-1=1)的索引下标,记录这是第几个Block。
某个Thread在整个Grid中的位置编号为:
threadIdx.x + blockIdx.x * blockDim.x
。
将CPU的代码改进一下就能得到:
import numba as nb
import numpy as np
from numba import cuda
#检测一下GPU是否可用
print(cuda.gpus)
#把数据导入到data里面
f = open(r'source.txt')
data = f.read().split(" ")
while '' in data:
data.remove('')
data = np.array(data, dtype = int)
@cuda.jit
def nb_func(out,data):
# j定义为这个thread在所在的block块中的位置(0 <= j <= 761)
j = cuda.threadIdx.x
# i定义为这个block块在gird中的位置(0 <= i <= 1199)
i = cuda.blockIdx.x
for k in range(128):
for n in range(128):
order = round((((i * i + (j - k * 6) * (j - k * 6)) ** 0.5 + (i * i + (j - n * 6) * (j - n * 6)) ** 0.5) * 0.05) / 1.54 * 30)
if (order < 2000):
out[j][i] = out[j][i] + data[k * 2000 + order]
#将data数据拷贝到GPU
data_device=cuda.to_device(data)
#在GPU里开辟一块空间存放图像数组
out_device=cuda.device_array([762,1200])
#运行nb_func()函数
nb_func[1200,762](out_device,data_device)
#最后将图像数据从GPU拷贝回CPU
out = out_device.copy_to_host()
print(out)
最后耗时约25s,其中并行运算的仅耗时0.5s,将数据从GPU拷贝回CPU耗时24.5s
输出:
Reference
:
初识GPU编程 | Weizheng