torch.cuda.max_memory_allocated
- torch.cuda.max_memory_allocated(device=None)[源代码]
-
以字节为单位返回给定设备上张量占用的最大 GPU 内存。
默认情况下,这会返回自程序启动以来的最大分配内存值。可以通过
reset_peak_memory_stats()
重置跟踪此指标的起点。例如,这两个函数可以用来测量训练循环中每个迭代的最大已分配内存使用情况。- 参数
-
device (torch.device 或 int, 可选) – 选定的设备。如果
device
为None
(默认值),则返回当前设备的统计信息,该信息由current_device()
给出。 - 返回类型
注意
关于GPU内存管理的更多信息,请参见内存管理。