您好,登錄后才能下訂單哦!
這篇文章給大家介紹如何在pycharm中運行和調試torch分布式訓練,內容非常詳細,感興趣的小伙伴們可以參考借鑒,希望對大家能有所幫助。
現在很多深度學習研究開源代碼都會使用pytorch框架,原因之一就是在torch中,只要你定義好了一個module,你就可以輕易的用
torch.distributed
將其應用到單機多GPU或者多機多GPU的場景中,加速模型的收斂速度。
PyTorch 1.1.0 PyCharm 2020.1
python -m torch.distributed.launch --nproc_per_node=4 tools/train.py --cfg xxx.yaml
ln -s /yourpython/lib/python3.6/site-packages/torch/distributed/ /yourprogram/
打開Pycharm,依次點擊Run->Edit Configurations 進入參數配置界面:
只需要配置Script path為launch.py路徑;Parameters為launch.py運行參數,參考命令行調用的方法,設置如下。
--nproc_per_node=4tools/train.py --cfg xxx.yaml
關于如何在pycharm中運行和調試torch分布式訓練就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。