在流行數據集上訓練後,需要固定卷積池層,只訓練後面全連接層的參數,使用自己的數據集。
首先是調整網絡結構,池幾層卷積和卷積的模板大小。取而代之的是參數,比如體重秤,學習率,reg等。,根據確定的結構進行調整。
當妳用CNN進行圖像分類時,無非是把CNN作為壹種學習特征的手段。妳可以把網絡想象成兩個部分。前面的卷積層學習圖像的基本-中-高級特征,後面的全連接層對應普通神經網絡進行分類。
如果妳需要學習,首先妳應該去看UFLDL教程。然後cs231n
而不是問別人,妳有沒有先看過imageNet數據集?
對於通過將流行數據集與它們自己的數據混合來訓練模型的方法。如果兩種數據非常相似,也是可以的。但是對於流行的數據集,其自身標註的數據量壹般不會太大。如果比例是1:1000,1:100,那麽完全用數據集訓練出來的模型,不需要加上自己的數據,可能會得到壹個很好的結果。
如果我自己的數據和數據集有壹些差異,我認為我自己的數據是作為噪音加入到數據集的。Cnn認為圖像是局部相關的,但欺騙CNN的方法主要是因為自然圖像呈流形結構分布,訓練好的模型需要這種流形假設,而人工合成的圖像由於加入了不自然的噪聲,會嚴重幹擾分類結果,不符合模型假設。
如果兩者相差太大,數據集是壹個分布,妳的數據是另壹個分布。沒有壹起嘗試過,但是我覺得結果不會太好。
此時數據集只能用來訓練cnn的特征提取能力。然後用於分類的全連通層,根據妳的數據量調整尺度。