本帖最后由 xiaomeng 于 2022-5-4 18:05 编辑
前言:这几天看hackerbob发教程,所以我就过来发发教程啦,本文专门为skystars良心定制,请查收 @skystars
看教程前的准备:最好是NVidia的显卡,至少8G显存。本人在本教程中使用NVIDIA GeForce RTX 2080 Ti 11GB显存的显卡作为示例,没办法,自己家里的显卡多的堆积如山了(bushi
附全配置:ubuntu , pytorch, NVIDIA GeForce RTX 2080 Ti, CPU 6× Xeon E5-2678 v3, 内存 36G
首先:我需要明确一个问题,为什么深度学习要用显卡?
1. 因为CPU计算浮点数比GPU计算要慢的多,我们听过代码来实验一下,在实践中探理,验证中求真。
1)。我们需要分别用CPU和GPU初始化一个1000x10000和10000x10000的矩阵,记录时间,之后用GPU时间除以CPU时间就可以得到了。
代码如下:
[Python] 纯文本查看 复制代码 #coding=utf-8
import torch
from time import perf_counter
x = torch.rand(1000,10000)
y = torch.rand(10000,10000)
#CPU
start = perf_counter()
x.mm(y)
finish = perf_counter()
time = finish-start
print("CPU计算时间:%s" % time)
#GPU
if torch.cuda.is_available():
x = x.cuda()
y = y.cuda()
start = perf_counter()
x.mm(y)
finish = perf_counter()
time_cuda = finish-start
print("GPU加速计算的时间:%s" % time_cuda)
print("CPU计算时间是GPU加速计算时间的%s倍" % str(time/time_cuda))
else:
print("未支持CUDA")
见下图,通过代码得知,GPU计算速度,大概是CPU计算速度的6倍(今天不知道为啥,显卡表现有点不太好,以前我用Tesla k80的显卡计算速度都是cpu的30倍,今天有点翻车,见笑了)
本文以后会继续更新的
|