相关疑难解决方法(0)

如何判断tensorflow是否在python shell中使用gpu加速?

我已经在我的ubuntu 16.04中使用第二个答案 ubuntu的内置apt cuda安装中安装了tensorflow .

现在我的问题是如何测试tensorflow是否真的使用gpu?我有一个gtx 960m gpu.当我import tensorflow这是输出

I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcublas.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcudnn.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcufft.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcuda.so.1 locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcurand.so locally
Run Code Online (Sandbox Code Playgroud)

这个输出是否足以检查tensorflow是否正在使用gpu?

python ubuntu tensorflow

246
推荐指数
24
解决办法
36万
查看次数

在TensorFlow中使用共享GPU内存?

所以我在一台带有GeForce GTX 980显卡的Windows 10机器上安装了TensorFlow的GPU版本.

不可否认,我对显卡知之甚少,但据dxdiag说它确实有:

4060MB 专用存储器(VRAM)和;

8163MB 共享内存

总计约12224MB.

然而,我注意到,这种"共享"记忆似乎毫无用处.当我开始训练模型时,VRAM将填满,如果内存需求超过这些4GB,TensorFlow将因"资源耗尽"错误消息而崩溃.

当然,我可以通过选择适当低的批量大小来防止达到这一点,但我想知道是否有办法利用这些"额外" 8GB的RAM,或者如果是这样,TensorFlow需要内存专用.

shared-memory vram tensorflow

17
推荐指数
2
解决办法
9128
查看次数

标签 统计

tensorflow ×2

python ×1

shared-memory ×1

ubuntu ×1

vram ×1