日本免费高清视频-国产福利视频导航-黄色在线播放国产-天天操天天操天天操天天操|www.shdianci.com

學無先后,達者為師

網站首頁 編程語言 正文

yolov5訓練時參數workers與batch-size的深入理解_python

作者:flamebox ? 更新時間: 2022-05-27 編程語言

yolov5訓練命令

 python .\train.py --data my.yaml --workers 8 --batch-size 32 --epochs 100

yolov5的訓練很簡單,下載好倉庫,裝好依賴后,只需自定義一下data目錄中的yaml文件就可以了。這里我使用自定義的my.yaml文件,里面就是定義數據集位置和訓練種類數和名字。

workers和batch-size參數的理解

一般訓練主要需要調整的參數是這兩個:

workers

指數據裝載時cpu所使用的線程數,默認為8。代碼解釋如下

parser.add_argument('--workers', type=int, default=8, help='max dataloader workers (per RANK in DDP mode)')

一般默使用8的話,會報錯~~。原因是爆系統(tǒng)內存,除了物理內存外,需要調整系統(tǒng)的虛擬內存。訓練時主要看已提交哪里的實際值是否會超過最大值,超過了不是強退程序就是報錯。

所以需要根據實際情況分配系統(tǒng)虛擬內存(python執(zhí)行程序所在的盤)的最大值

batch-size

就是一次往GPU哪里塞多少張圖片了。決定了顯存占用大小,默認是16。

parser.add_argument('--batch-size', type=int, default=16, help='total batch size for all GPUs, -1 for autobatch')

訓練時顯存占用越大當然效果越好,但如果爆顯存,也是會無法訓練的。我使用–batch-size 32時,顯存差不多能利用完。

兩個參數的調優(yōu)

對于workers,并不是越大越好,太大時gpu其實處理不過來,訓練速度一樣,但虛擬內存(磁盤空間)會成倍占用。

workers為4時的內存占用

workers為4時的內存占用

workers為8時的內存占用

workers為8時的內存占用

我的顯卡是rtx3050,實際使用中上到4以上就差別不大了,gpu完全吃滿了。但是如果設置得太小,gpu會跑不滿。比如當workers=1時,顯卡功耗只得72W,速度慢了一半;workers=4時,顯卡功耗能上到120+w,完全榨干了顯卡的算力。所以需要根據你實際的算力調整這個參數。

2. 對于batch-size,有點玄學。理論是能盡量跑滿顯存為佳,但實際測試下來,發(fā)現當為8的倍數時效率更高一點。就是32時的訓練效率會比34的高一點,這里就不太清楚原理是什么了,實際操作下來是這樣。

總結

原文鏈接:https://blog.csdn.net/flamebox/article/details/123011129

欄目分類
最近更新