# 4.3。内存管理
> 原文: [http://numba.pydata.org/numba-doc/latest/cuda-reference/memory.html](http://numba.pydata.org/numba-doc/latest/cuda-reference/memory.html)
```py
numba.cuda.to_device(obj, stream=0, copy=True, to=None)
```
将 numpy ndarray 或结构化标量分配并传输到设备。
要将 host->设备复制为 numpy 数组:
```py
ary = np.arange(10)
d_ary = cuda.to_device(ary)
```
要将传输排入队列:
```py
stream = cuda.stream()
d_ary = cuda.to_device(ary, stream=stream)
```
得到的`d_ary`是`DeviceNDArray`。
要复制 device->主机:
```py
hary = d_ary.copy_to_host()
```
要将 device->主机复制到现有数组:
```py
ary = np.empty(shape=d_ary.shape, dtype=d_ary.dtype)
d_ary.copy_to_host(ary)
```
要将传输排入队列:
```py
hary = d_ary.copy_to_host(stream=stream)
```
```py
numba.cuda.device_array(shape, dtype=np.float, strides=None, order='C', stream=0)
```
分配一个空设备 ndarray。与`numpy.empty()`类似。
```py
numba.cuda.device_array_like(ary, stream=0)
```
使用数组中的信息调用 cuda.devicearray()。
```py
numba.cuda.pinned_array(shape, dtype=np.float, strides=None, order='C')
```
使用固定(页面锁定)的缓冲区分配 np.ndarray。与 np.empty()类似。
```py
numba.cuda.mapped_array(shape, dtype=np.float, strides=None, order='C', stream=0, portable=False, wc=False)
```
使用固定并映射到设备的缓冲区分配映射的 ndarray。与 np.empty()相似
| 参数: |
* **便携式** - 一个布尔标志,允许分配的设备内存在多个设备中使用。
* **wc** - 一个布尔标志,用于启用写组合分配,主机写入和设备读取速度更快,但主机写入速度较慢,设备写入速度较慢。
|
| --- | --- |
```py
numba.cuda.pinned(*arylist)
```
用于临时固定主机 ndarray 序列的上下文管理器。
```py
numba.cuda.mapped(*arylist, **kws)
```
用于临时映射主机 ndarray 序列的上下文管理器。
## 4.3.1。设备对象
```py
class numba.cuda.cudadrv.devicearray.DeviceNDArray(shape, strides, dtype, stream=0, writeback=None, gpu_data=None)
```
GPU 上阵列类型
```py
copy_to_device(ary, stream=0)
```
将 <cite>ary</cite> 复制到 <cite>self</cite> 。
如果 <cite>ary</cite> 是 CUDA 内存,请执行设备到设备传输。否则,执行主机到设备传输。
```py
copy_to_host(ary=None, stream=0)
```
如果`ary`为`None`,则将`self`复制到`ary`或创建新的 Numpy ndarray。
如果给出了 CUDA `stream`,则传输将作为给定流的一部分异步进行。否则,传输是同步的:复制完成后函数返回。
始终返回主机阵列。
例:
```py
import numpy as np
from numba import cuda
arr = np.arange(1000)
d_arr = cuda.to_device(arr)
my_kernel[100, 100](d_arr)
result_array = d_arr.copy_to_host()
```
```py
is_c_contiguous()
```
如果数组是 C-contiguous,则返回 true。
```py
is_f_contiguous()
```
如果数组是 Fortran-contiguous,则返回 true。
```py
ravel(order='C', stream=0)
```
在不改变其内容的情况下展平阵列,类似于 [`numpy.ndarray.ravel()`](https://docs.scipy.org/doc/numpy/reference/generated/numpy.ndarray.ravel.html#numpy.ndarray.ravel "(in NumPy v1.16)") 。
```py
reshape(*newshape, **kws)
```
与 [`numpy.ndarray.reshape()`](https://docs.scipy.org/doc/numpy/reference/generated/numpy.ndarray.reshape.html#numpy.ndarray.reshape "(in NumPy v1.16)") 类似,重塑阵列而不改变其内容。例:
```py
d_arr = d_arr.reshape(20, 50, order='F')
```
```py
split(section, stream=0)
```
将数组拆分为<cite>部分</cite>大小的相等分区。如果阵列不能平均分割,则最后一部分将更小。
```py
class numba.cuda.cudadrv.devicearray.DeviceRecord(dtype, stream=0, gpu_data=None)
```
GPU 上的记录类型
```py
copy_to_device(ary, stream=0)
```
将 <cite>ary</cite> 复制到 <cite>self</cite> 。
如果 <cite>ary</cite> 是 CUDA 内存,请执行设备到设备传输。否则,执行主机到设备传输。
```py
copy_to_host(ary=None, stream=0)
```
如果`ary`为`None`,则将`self`复制到`ary`或创建新的 Numpy ndarray。
如果给出了 CUDA `stream`,则传输将作为给定流的一部分异步进行。否则,传输是同步的:复制完成后函数返回。
始终返回主机阵列。
例:
```py
import numpy as np
from numba import cuda
arr = np.arange(1000)
d_arr = cuda.to_device(arr)
my_kernel[100, 100](d_arr)
result_array = d_arr.copy_to_host()
```
```py
class numba.cuda.cudadrv.devicearray.MappedNDArray(shape, strides, dtype, stream=0, writeback=None, gpu_data=None)
```
使用 CUDA 映射内存的主机阵列。
```py
copy_to_device(ary, stream=0)
```
将 <cite>ary</cite> 复制到 <cite>self</cite> 。
如果 <cite>ary</cite> 是 CUDA 内存,请执行设备到设备传输。否则,执行主机到设备传输。
```py
copy_to_host(ary=None, stream=0)
```
如果`ary`为`None`,则将`self`复制到`ary`或创建新的 Numpy ndarray。
如果给出了 CUDA `stream`,则传输将作为给定流的一部分异步进行。否则,传输是同步的:复制完成后函数返回。
始终返回主机阵列。
例:
```py
import numpy as np
from numba import cuda
arr = np.arange(1000)
d_arr = cuda.to_device(arr)
my_kernel[100, 100](d_arr)
result_array = d_arr.copy_to_host()
```
```py
split(section, stream=0)
```
将数组拆分为<cite>部分</cite>大小的相等分区。如果阵列不能平均分割,则最后一部分将更小。
- 1. 用户手册
- 1.1。 Numba 的约 5 分钟指南
- 1.2。概述
- 1.3。安装
- 1.4。使用@jit 编译 Python 代码
- 1.5。使用@generated_jit 进行灵活的专业化
- 1.6。创建 Numpy 通用函数
- 1.7。用@jitclass 编译 python 类
- 1.8。使用@cfunc 创建 C 回调
- 1.9。提前编译代码
- 1.10。使用@jit 自动并行化
- 1.11。使用@stencil装饰器
- 1.12。从 JIT 代码 中回调到 Python 解释器
- 1.13。性能提示
- 1.14。线程层
- 1.15。故障排除和提示
- 1.16。常见问题
- 1.17。示例
- 1.18。会谈和教程
- 2. 参考手册
- 2.1。类型和签名
- 2.2。即时编译
- 2.3。提前编译
- 2.4。公用事业
- 2.5。环境变量
- 2.6。支持的 Python 功能
- 2.7。支持的 NumPy 功能
- 2.8。与 Python 语义的偏差
- 2.9。浮点陷阱
- 2.10。 Python 2.7 寿命终止计划
- 3. 用于 CUDA GPU 的 Numba
- 3.1。概述
- 3.2。编写 CUDA 内核
- 3.3。内存管理
- 3.4。编写设备功能
- 3.5。 CUDA Python 中支持的 Python 功能
- 3.6。支持的原子操作
- 3.7。随机数生成
- 3.8。设备管理
- 3.10。示例
- 3.11。使用 CUDA 模拟器 调试 CUDA Python
- 3.12。 GPU 减少
- 3.13。 CUDA Ufuncs 和广义 Ufuncs
- 3.14。共享 CUDA 内存
- 3.15。 CUDA 阵列接口
- 3.16。 CUDA 常见问题
- 4. CUDA Python 参考
- 4.1。 CUDA 主机 API
- 4.2。 CUDA 内核 API
- 4.3。内存管理
- 5. 用于 AMD ROC GPU 的 Numba
- 5.1。概述
- 5.2。编写 HSA 内核
- 5.3。内存管理
- 5.4。编写设备功能
- 5.5。支持的原子操作
- 5.6。代理商
- 5.7。 ROC Ufuncs 和广义 Ufuncs
- 5.8。示例
- 6. 扩展 Numba
- 6.1。高级扩展 API
- 6.2。低级扩展 API
- 6.3。示例:间隔类型
- 7. 开发者手册
- 7.1。贡献给 Numba
- 7.2。 Numba 建筑
- 7.3。多态调度
- 7.4。关于发电机的注意事项
- 7.5。关于 Numba Runtime 的注意事项
- 7.6。使用 Numba Rewrite Pass 获得乐趣和优化
- 7.7。实时变量分析
- 7.8。上市
- 7.9。模板注释
- 7.10。关于自定义管道的注意事项
- 7.11。环境对象
- 7.12。哈希 的注意事项
- 7.13。 Numba 项目路线图
- 8. Numba 增强建议
- 9. 术语表