在网上有很多关于使用 gpu 训练的博文,但是,如果按照他们的安装方式,有的时候总是不行。会出现下面的错误:
cuda
明明已经安装成功了,为什么torch.cuda.is_available()
为什么是False
?- 我需要在本地安装
cudnn
或者cuda
吗?
在网上有很多关于使用 gpu 训练的博文,但是,如果按照他们的安装方式,有的时候总是不行。会出现下面的错误:
cuda
明明已经安装成功了,为什么 torch.cuda.is_available()
为什么是 False
?cudnn
或者 cuda
吗?公司让我基于 okexchain
开发一个节点质押工具。
SSH
分客户端openssh-client
和openssh-server
。
如果你只是想登陆别的机器的SSH
只需要安装openssh-client
(ubuntu
有默认安装,如果没有则sudo apt-get install openssh-client
),如果要使本机开放SSH
服务就需要安装openssh-server
。
这个项目还是很有意思的,我是在寻找便宜的 gpu 机器的时候发现的。
fastai
比之于 pytorch
,相当于 keras
比之于 tensorflow
。
Anaconda
则是一个打包的集合,里面预装好了conda
、某个版本的python
、众多packages
、科学计算工具等等,就是把很多常用的不常用的库都给你装好了。
Miniconda
,顾名思义,它只包含最基本的内容——python
与conda
,以及相关的必须依赖项,对于空间要求严格的用户,Miniconda
是一种选择。就只包含最基本的东西,其他的库得自己装。
tensorflow
写 gpu
程序和写 cpu
是一样的,你不需要额外在代码中做多余的操作,只需要写出一份代码,至于使用的是 cpu
还是 gpu
取决于你安装的是 tensorflow
还是 tensorflow-gpu
。
但是,如果你有多块 gpu
的话,想要使用一块 gpu
跑,还是需要写使用哪一块的代码,不写的话,自由分配,可能是多块 gpu
一起跑代码。
责任链模式(Chain of Responsibility Pattern)为请求创建了一个接收者对象的链。这种模式给予请求的类型,对请求的发送者和接收者进行解耦。这种类型的设计模式属于行为型模式。
类似于击鼓传花。