在Keras中,Dropout層用于防止過擬合。在訓練過程中,Dropout層會隨機地將一定比例的輸入單元的權重設為0,從而強制網絡學習多個獨立的表示。這樣可以減少神經網絡的復雜度,減少過擬合的風險,提高模型的泛化能力。dropout的主要原理是,在每次迭代時,dropout層都會隨機忽略一部分的神經元,在訓練的過程中,神經元以概率p被激活,以概率1-p被忽略,而在預測時,則會把所有神經元的輸出乘以p,以保持其期望值不變。