網站首頁 編程語言 正文
使用cpu和gpu的區別
在Tensorflow中使用gpu和cpu是有很大的差別的。在小數據集的情況下,cpu和gpu的性能差別不大。
不過在大數據集的情況下,cpu的時間顯著增加,而gpu變化并不明顯。
不過,我的筆記本電腦的風扇終于全功率運行了。
import tensorflow as tf
import timeit
import numpy as np
import matplotlib.pyplot as plt
def cpu_run(num):
with tf.device('/cpu:0'):
cpu_a=tf.random.normal([1,num])
cpu_b=tf.random.normal([num,1])
c=tf.matmul(cpu_a,cpu_b)
return c
def gpu_run(num):
with tf.device('/gpu:0'):
gpu_a=tf.random.normal([1,num])
gpu_b=tf.random.normal([num,1])
c=tf.matmul(gpu_a,gpu_b)
return c
k=10
m=7
cpu_result=np.arange(m,dtype=np.float32)
gpu_result=np.arange(m,dtype=np.float32)
x_time=np.arange(m)
for i in range(m):
k=k*10
x_time[i]=k
cpu_str='cpu_run('+str(k)+')'
gpu_str='gpu_run('+str(k)+')'
#print(cpu_str)
cpu_time=timeit.timeit(cpu_str,'from __main__ import cpu_run',number=10)
gpu_time=timeit.timeit(gpu_str,'from __main__ import gpu_run',number=10)
# 正式計算10次,取平均時間
cpu_time=timeit.timeit(cpu_str,'from __main__ import cpu_run',number=10)
gpu_time=timeit.timeit(gpu_str,'from __main__ import gpu_run',number=10)
cpu_result[i]=cpu_time
gpu_result[i]=gpu_time
print(cpu_result)
print(gpu_result)
fig, ax = plt.subplots()
ax.set_xscale("log")
ax.set_adjustable("datalim")
ax.plot(x_time,cpu_result)
ax.plot(x_time,gpu_result)
ax.grid()
plt.draw()
plt.show()
藍線是cpu的耗時,而紅線是gpu的耗時。
一些術語的比較(tensorflow和pytorch/cpu和gpu/)
tensorflow和pytorch
- pytorch是一個動態框架,tensorflow是一個靜態框架。
- tensorflow是一個靜態框架體現在:需要先構建一個tensorflow的計算圖,構建好之后這樣的一個計算圖是不能變的,然后再傳入不同的數據進去進行計算。
- 這種靜態框架帶來的問題是:固定了計算的流程,勢必帶來不靈活性,如果要改變計算的邏輯或者是隨著時間變化的計算邏輯,這樣的動態計算tensorflow是是無法實現的。
- pytorch是一個動態框架,和python的邏輯一樣,對變量做任何操作都是靈活的。
- 一個好的框架需要具備三點:(1)對大的計算圖能方便的實現(2)能自動求變量的導數(3)能簡單的運行在GPU上。這三點pytorch都可以達到
- tensorflow在gpu上的分布式計算更為出色,在數據量巨大的時候效率比pytorch要高。企業很多都是用的tensorflow,pytorch在學術科研上使用多些。
- pytorch包括三個層次:tensor/variable/module。tensor即張量的意思,由于是矩陣的運算,所以適合在矩陣上跑。variable就是tensor的封裝,封裝的目的就是為了能夠保存住該variable在整個計算圖中的位置,能夠知道計算圖中各個變量之間的相互依賴關系,這樣就能夠反向求梯度。module是一個更高的層次,是一個神經網絡的層次,可以直接調用全連接層、卷積層等神經網絡。
cpu和gpu
- cpu更少的核,但是單個核的計算能力很強
- gpu:更多的核,每個核的計算能力不如cpu,所以更適合做并行計算,如矩陣計算,深度學習就是很多的矩陣計算。
cuda
- 直接寫cuda代碼就類似寫匯編語言
- 比cuda高級的是cudnn
- 比cudnn高級的是用框架tensorflow/caffe/pytorch
原文鏈接:https://blog.csdn.net/weixin_42272768/article/details/105427184
相關推薦
- 2022-07-04 pandas讀取中文xlsx文件出現的問題_python
- 2022-11-07 ASP.NET?MVC通過勾選checkbox更改select的內容_實用技巧
- 2023-07-09 Go語言new與make區別
- 2022-06-21 Android實現登錄界面的注冊功能_Android
- 2023-04-03 iOS數據持久化KeyChain數據操作詳解_IOS
- 2022-05-23 ZooKeeper分布式協調服務設計核心概念及安裝配置_zabbix
- 2022-02-16 dart總結(三.類,接口,繼承,多態,mixins和枚舉詳解)
- 2022-08-25 Python并行編程多線程鎖機制Lock與RLock實現線程同步_python
- 最近更新
-
- window11 系統安裝 yarn
- 超詳細win安裝深度學習環境2025年最新版(
- Linux 中運行的top命令 怎么退出?
- MySQL 中decimal 的用法? 存儲小
- get 、set 、toString 方法的使
- @Resource和 @Autowired注解
- Java基礎操作-- 運算符,流程控制 Flo
- 1. Int 和Integer 的區別,Jav
- spring @retryable不生效的一種
- Spring Security之認證信息的處理
- Spring Security之認證過濾器
- Spring Security概述快速入門
- Spring Security之配置體系
- 【SpringBoot】SpringCache
- Spring Security之基于方法配置權
- redisson分布式鎖中waittime的設
- maven:解決release錯誤:Artif
- restTemplate使用總結
- Spring Security之安全異常處理
- MybatisPlus優雅實現加密?
- Spring ioc容器與Bean的生命周期。
- 【探索SpringCloud】服務發現-Nac
- Spring Security之基于HttpR
- Redis 底層數據結構-簡單動態字符串(SD
- arthas操作spring被代理目標對象命令
- Spring中的單例模式應用詳解
- 聊聊消息隊列,發送消息的4種方式
- bootspring第三方資源配置管理
- GIT同步修改后的遠程分支