本發(fā)明涉及一種分布式深度學(xué)習的通信優(yōu)化方法及系統。該方法包括:1)對于分布式深度學(xué)習的訓練過(guò)程中各計算節點(diǎn)產(chǎn)生的梯度,采用稀疏化方法選取部分梯度值;2)對采用稀疏化方法選取的部分梯度值進(jìn)行量化,將量化后的梯度值作為梯度通信的傳輸對象,傳輸給參數服務(wù)器。本發(fā)明提出了梯度的稀疏化傳遞和量化壓縮的結合,并且針對訓練過(guò)程中的不同特點(diǎn)劃分了三個(gè)不同的訓練階段,根據不同的訓練狀況進(jìn)行調整,將梯度壓縮的效果進(jìn)一步提升,提高了分布式場(chǎng)景下的訓練效率,并且沒(méi)有對收斂性能和模型的精度產(chǎn)生明顯的負面影響。


