一、前记
这两天开始写项目了,但是暑假写的那些东西都已经忘的差不多了。现在想要花个3天的时间将这些内容回顾一下,趁着没事情可以将TensorFlow换成GPU版本的(原来我是CPU版本的,但是运算速度奇慢。有关于ML的东西还是使用GPU计算会更快更好),于是趁着最近有时间将我的CPU版本换成GPU版本的,现在记录一下避(lie)坑(kai)过程。
二、前期
1、环境
在这里我使用了Anaconda虚拟环境下的Python3.7.6,显卡是NVIDIA 1050
2、大概流程
安装Anaconda
检查自己电脑的GPU是否支持CUDA
升级自己显卡的驱动程序
安装正确版本的CUDA
安装CUDNN
三、安装流程
1、安装Anaconda
Anaconda的安装算是整个流程里面最简单的一部分了😢,在官网上面下载Anaconda(最好是下载Python3版本的,因为Python2都停止维护了).按照步骤走很容易就安装好.
2、安装CUDA(有关CUDA和CUDNN是啥详见这里)
①首先查看GPU的型号
在桌面右键->打开NVIDIA控制面板->点击左下角"系统信息"->组件->关注这个信息

再搜索一下GPU型号是否支持CUDA(查看显卡的办法在这里)
②下载CUDA和CUDNN
在这里我建议下载这两的版本分别为:10.0和10.0,因为这样子是比较兼容的方式(如果不兼容会相当的麻烦),点击下载之后可以睡一觉去了,因为文件有点大.
③安装CUDA



安装完成之后如何检验CUDA是否安装成功?
在cmd里面输入nvcc -V.出现如下信息则表明安装成功.

再来看看环境变量是否里面有CUDA有关的路径.

④安装CUDNN
解压之后里面有几个文件要复制到CUDA文件夹里面.
解压cudnn7.4.2得到cuda文件夹,然后复制下面三个文件到 CUDA Toolkit 目录(CUDA我是默认目录安装的) 。
复制<cuDNN路径下>\cuda\bin\cudnn64_7.dll 到 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\bin.
复制 <cuDNN路径下>\cuda\ include\cudnn.h 到 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\include.
复制 <cuDNN路径下>\cuda\lib\x64\cudnn.lib 到 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\lib\x64.
⑤安装TensorFlow
pip install tensorflow-gpu==2.0.0-beta1
四、测试是否安装成功
TensorFlow版本为2.0.0的话,测试代码如下:
import tensorflow as tf
sess=tf.compat.v1.Session(config=tf.compat.v1.ConfigProto(log_device_placement=True))
TensorFlow版本为1.x.x的话,测试代码如下:
import tensorflow as tf
sess=tf.Session(config=tf.ConfigProto(log_device_placement=True))
出现GPU消息则成功
------------------------------------------------------------------------------------------------
五、将Anaconda虚拟环境导入Pycharm中
首先在Pycharm先建立一个Project,然后在File->Setting->Project:XX->Add Python Interpreter->Virtualenv environment->Existing environment->在Interpreter里面选择虚拟环境里面的python.exe.


六、可能遇到的问题以及解决的方法
1、pip下载不出来或者过慢:建议换源(百度pip换源)
2、链接超时:pip --default-timeout=100 install xxx