精品久久久久久中文字幕,狠狠干夜夜操,高h纯肉无码视频在线观看,日韩欧美成人一区二区三区,日本三级电影精品五区

Mar 23, 2020

種草指南|2020深度學(xué)習(xí)GPU橫向比較,哪款是你的心頭好?

搞AI,誰(shuí)又能沒(méi)有“GPU之惑”?下面列出了一些適合進(jìn)行深度學(xué)習(xí)模型訓(xùn)練的GPU,并將它們進(jìn)行了橫向比較,一起來(lái)看看吧!

微信ID:kuanfankeji


CPU與GPU對(duì)比

CPU是一個(gè)有多種功能的優(yōu)秀領(lǐng)導(dǎo)者。它的優(yōu)點(diǎn)在于調(diào)度、管理、協(xié)調(diào)能力強(qiáng),計(jì)算能力則位于其次。而GPU相當(dāng)于一個(gè)接受CPU調(diào)度的“擁有大量計(jì)算能力”的員工。

下圖是處理器內(nèi)部結(jié)構(gòu)圖:

DRAM即動(dòng)態(tài)隨機(jī)存取存儲(chǔ)器,是常見(jiàn)的系統(tǒng)內(nèi)存。

Cache存儲(chǔ)器:電腦中作為高速緩沖存儲(chǔ)器,是位于CPU和主存儲(chǔ)器DRAM之間,規(guī)模較小,但速度很高的存儲(chǔ)器。

算術(shù)邏輯單元ALU是能實(shí)現(xiàn)多組算術(shù)運(yùn)算和邏輯運(yùn)算的組合邏輯電路。

當(dāng)需要對(duì)大數(shù)據(jù)bigdata做同樣的事情時(shí),GPU更合適,當(dāng)需要對(duì)同一數(shù)據(jù)做很多事情時(shí),CPU正好合適。

GPU能做什么?關(guān)于圖形方面的以及大型矩陣運(yùn)算,如機(jī)器學(xué)習(xí)算法等方面,GPU就能大顯身手。

簡(jiǎn)而言之,CPU擅長(zhǎng)統(tǒng)領(lǐng)全局等復(fù)雜操作,GPU擅長(zhǎng)對(duì)大數(shù)據(jù)進(jìn)行簡(jiǎn)單重復(fù)操作。CPU是從事復(fù)雜腦力勞動(dòng)的教授,而GPU是進(jìn)行大量并行計(jì)算的體力勞動(dòng)者。

深度學(xué)習(xí)是模擬人腦神經(jīng)系統(tǒng)而建立的數(shù)學(xué)網(wǎng)絡(luò)模型,這個(gè)模型的最大特點(diǎn)是,需要大數(shù)據(jù)來(lái)訓(xùn)練。因此,對(duì)電腦處理器的要求,就是需要大量的并行的重復(fù)計(jì)算,GPU正好有這個(gè)專長(zhǎng),時(shí)勢(shì)造英雄,因此,GPU就出山擔(dān)當(dāng)重任了。


太長(zhǎng)不看版

截至2020年2月,以下GPU可以訓(xùn)練所有當(dāng)今語(yǔ)言和圖像模型:
  • RTX 800048GB VRAM,約5500美元
  • RTX 600024GB VRAM,約4000美元
  • Titan RTX24GB VRAM,約2500美元

以下GPU可以訓(xùn)練大多數(shù)(但不是全部)模型:
  • RTX 2080 Ti11GB VRAM,約1150美元
  • GTX 1080 Ti11GB VRAM,返廠翻新機(jī)約800美元
  • RTX 20808GB VRAM,約720美元
  • RTX 20708GB VRAM,約500美元

以下GPU不適合用于訓(xùn)練現(xiàn)在模型:
  • RTX 20606GB VRAM,約359美元。

在這個(gè)GPU上進(jìn)行訓(xùn)練需要相對(duì)較小的batch size,模型的分布近似會(huì)受到影響,從而模型精度可能會(huì)較低。

GPU購(gòu)買建議

  • RTX 2060(6 GB)你想在業(yè)余時(shí)間探索深度學(xué)習(xí)。
  • RTX 2070或2080(8 GB)你在認(rèn)真研究深度學(xué)習(xí),但GPU預(yù)算只有600-800美元。8 GB的VRAM適用于大多數(shù)模型。
  • RTX 2080 Ti(11 GB)你在認(rèn)真研究深度學(xué)習(xí)并且您的GPU預(yù)算約為1,200美元。RTX 2080 Ti比RTX 2080快大約40%。
  • Titan RTX和Quadro RTX 6000(24 GB)你正在廣泛使用現(xiàn)代模型,但卻沒(méi)有足夠買下RTX 8000的預(yù)算。
  • Quadro RTX 8000(48 GB)你要么是想投資未來(lái),要么是在研究2020年最新最酷炫的模型。
  • NV TESLA V100 (32GB)如果你需要在NVIDIA數(shù)據(jù)中心使用CUDA,那么TESLA就是必選品了。


圖像模型

內(nèi)存不足之前的最大批處理大?。?/span>
*表示GPU沒(méi)有足夠的內(nèi)存來(lái)運(yùn)行模型。

性能(以每秒處理的圖像為單位):
*表示GPU沒(méi)有足夠的內(nèi)存來(lái)運(yùn)行模型。

語(yǔ)言模型

內(nèi)存不足之前的最大批處理大?。?/span>
*表示GPU沒(méi)有足夠的內(nèi)存來(lái)運(yùn)行模型。

性能:
* GPU沒(méi)有足夠的內(nèi)存來(lái)運(yùn)行模型。

使用Quadro RTX 8000結(jié)果進(jìn)行標(biāo)準(zhǔn)化后的表現(xiàn)

圖像模型

語(yǔ)言模型


結(jié)論

  • 語(yǔ)言模型比圖像模型受益于更大的GPU內(nèi)存。注意右圖的曲線比左圖更陡。這表明語(yǔ)言模型受內(nèi)存大小限制更大,而圖像模型受計(jì)算力限制更大。
  • 具有較大VRAM的GPU具有更好的性能,因?yàn)槭褂幂^大的批處理大小有助于使CUDA內(nèi)核飽和。
  • 具有更高VRAM的GPU可按比例實(shí)現(xiàn)更大的批處理大小。只懂小學(xué)數(shù)學(xué)的人都知道這很合理:擁有24 GB VRAM的GPU可以比具有8 GB VRAM的GPU容納3倍大的批次。
  • 比起其他模型來(lái)說(shuō),長(zhǎng)序列語(yǔ)言模型不成比例地占用大量的內(nèi)存,因?yàn)樽⒁饬Γ╝ttention)是序列長(zhǎng)度的二次項(xiàng)。

附注:測(cè)試模型

圖像模型:

語(yǔ)言模型:

深度學(xué)習(xí)客戶 免費(fèi)體驗(yàn)

云軒云計(jì)算管理 零等待


云軒Cloudhin專注Deep learning和高性能計(jì)算服務(wù)器定制,針對(duì)主要深度學(xué)習(xí)框架(如TensorFlow、Caffe 2、Theano或Torch)進(jìn)行了優(yōu)化和設(shè)置,在桌面上即可提供強(qiáng)大的深度學(xué)習(xí)功能。布局全國(guó)八家直屬分公司,實(shí)時(shí)響應(yīng)您的定制需求,做您服務(wù)器的貼心管家。