记录之使⽤3080ti运⾏tensorflow-gpu=1.x版本的源码
环境:Anaconda3,ubuntu18.04,RTX3080ti,python3.7
RTX3080ti显卡是当前市⾯上⽐较新的,算⼒⽐较强的显卡,且这类显卡采⽤了安培架构仅⽀持cuda11.x及以上版本。关于tf-
gpu,cuda,cudnn间的对应关系,我们可以查看:
关于驱动和cuda,cudnn的对应关系,我们可以查看:
##问题1:我的30系列卡的驱动为或更⾼,按照向下兼容的道理,那我是不是可以使⽤cuda10.x?
正常答案是不能,因为正常情况下30系列的卡只⽀持cuda11.x(⾮正常的答案也有,不过安装起来⽐较⿇烦,这⾥我们只讨论正常情况,下⾯会给出这种情况的链接)。这个问题也是困扰我的问题,因为我⼀直秉持着向下兼容的道理,相信我的3080ti⽀持cuda10.x,我在⼏次测试时发现,⾏不通。我们都知道,在使⽤conda安装tf-gpu的时候,会⾃动安装对应的cudatoolkit和cudnn,这也着实为我们省了不少⿇烦。但是在安装时发现conda可以search到的最⾼tensorflow-gpu版本为2.4.1,⽽其对应的cudatoolkit是10.1.183,这种办法装好的环境,在使⽤tf.test.is_gpu_avaliable()时打印出的是True,但在实际跑代码时,会卡在奇怪的地⽅:
##问题2:我虚拟环境中的tensorflow-gpu如果不使⽤conda⾃动安装的cudatoolkit和cudnn,直接使⽤⼤环境的CUDA和cudnn(前提是你的⼤环境已经配置好)?
tensorflow版本选择答案是可以,因为conda可以search到的最⾼tensorflow-gpu版本为2.4.1,⽽其对应的cudatoolkit是10.1.183,我们的30卡不可以直接⽤。由于该tf-gpu和cudatoolkit,cudnn是捆绑安装的,且卸载的时候是捆绑卸载的,所以我们不能使⽤conda来装tf-gpu了。将原来conda装的tf-gpu卸载,会⼀并卸载cudatoolkit和cudnn。如果环境中没有cudatoolkit和cudnn,就会使⽤⼤环境中的cuda和cudnn,使⽤pip在虚拟环境中安装tf-gpu,由于我的⼤环境cuda版本为11.2,因此我下载了tf-gpu=2.6.1。不少同学会问,可是我的代码时1.x的怎么办,接着看问题3。
##问题3:tf2.x和tf1.x相⽐,很多函数都变了,也舍弃了很多函数,怎么办?
根据问题1,我们已经知道,tf-gpu=1.x的版本正常是⽆法在30系列的卡上运⾏的,想调显卡就必须使⽤tf-gpu=2.x,因此我们需要针对修改源码,以让其在tf-gpu=2.x下运⾏,主要涉及的改动:
1.在import tensorflow 时使⽤:
import tensorflowpat.v1 as tf ###
tf.disable_v2_behavior()
这种⽅式import的tf不包含contrib,因为tf2.x丢弃了这个包
2.⼀些使⽤contrib包的初始化⽅式及函数:
tf1.x:  tf.contrib.layers.xavier_initializer()-->
tf2.x:  tf.keras.initializers.glorot_normal()
tf1.x:  tf.contrib.layers.l2_regularizer(0.01)) -->
tf2.x:  ularizers.l2(0.01))
⼤家在修改时,要根据出现的报错修改,改动应该不会涉及太多。
最后给⼤家说⼀下,我当前的配置:Nvidia-driver:465.31,tf-gpu=2.6.1,cuda=11.2(11.2.142), cudnn=8.1.1
最后还有⼀个问题:根据这⾥查询到的tf-gpu=2.4.0应该是搭配cuda=11.0的,为什么conda⾥会搭配cudatoolkit=10.1.x呢?应该是该⽹址给出的是已知能⽤的搭配,并不是所有搭配,想尝试conda这组搭
配可不可⾏的,可以使⽤20系列显卡,安装搭配cuda10.1的驱动。

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。