文章摘要
这篇文章介绍了如何利用NVIDIA的`watch`命令来周期性输出GPU的使用情况,方便监控显存、温度、内存使用以及GPU占有率等信息。通过`watch`命令,可以将`nvidia-smi`等命令设置为每10秒更新一次,从而实时掌握设备状态。文章还提到可以监控其他资源,如温度和内存使用情况,并鼓励读者关注相关文章获取更多信息。
目录1. 显示当前GPU使用情况2. 周期性输出GPU使用情况了解一下watch的功能watch的基本用法是具体如下所示总结
Nvidia自带了一个nvidia-smi的命令行工具,会显示显存使用情况:
$ nvidia-smi
输出:

但是有时我们希望不仅知道那一固定时刻的GPU使用情况,我们希望一直掌握其动向,此时我们就希望周期性地输出,比如每 10s 就更新显示。
这时候就需要用到 watch命令,来周期性地执行nvidia-smi命令了。
$ whatis watch
watch(1) – execute a program periodically, showing output fullscreen
watch(1) – execute a program periodically, showing output fullscreen
作用:周期性执行某一命令,并将输出显示。
$ watch [options] command
最常用的参数是 -n, 后面指定是每多少秒来执行一次命令。
监视显存:我们设置为每 10s 显示一次显存的情况:
$ watch -n 10 nvidia-smi
显示如下:

这样,只要开着这个命令行窗口,就可以每十秒刷新一次,是不是很方便呢?
如果我们希望来周期性地执行其他命令行操作,那么就可以简单地更换后面的nvidia-smi即可,So Cool !
重要的参数主要是温度、内存使用、GPU占有率,具体如下红框所示。

以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。
您可能感兴趣的文章:Linux下监视NVIDIA的GPU使用情况详解Linux、ubuntu系统下查看显卡型号、显卡信息详解基于Linux系统中查看硬件等信息的方法详解
© 版权声明
文章版权归作者所有,未经允许请勿转载。



