我已经在我的ubuntu 16.04中使用第二个答案在 ubuntu的内置apt cuda安装中安装了tensorflow .
现在我的问题是如何测试tensorflow是否真的使用gpu?我有一个gtx 960m gpu.当我import tensorflow这是输出
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcublas.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcudnn.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcufft.so locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcuda.so.1 locally
I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcurand.so locally
Run Code Online (Sandbox Code Playgroud)
这个输出是否足以检查tensorflow是否正在使用gpu?
所以我在一台带有GeForce GTX 980显卡的Windows 10机器上安装了TensorFlow的GPU版本.
不可否认,我对显卡知之甚少,但据dxdiag说它确实有:
4060MB 专用存储器(VRAM)和;
8163MB 共享内存
总计约12224MB.
然而,我注意到,这种"共享"记忆似乎毫无用处.当我开始训练模型时,VRAM将填满,如果内存需求超过这些4GB,TensorFlow将因"资源耗尽"错误消息而崩溃.
当然,我可以通过选择适当低的批量大小来防止达到这一点,但我想知道是否有办法利用这些"额外" 8GB的RAM,或者如果是这样,TensorFlow需要内存专用.