國立交通大學

#請益 深度學習模型辨識率

2020年7月4日 00:40
大家好,我最近在訓練一個模型,辨識率都有到90趴以上,但是當我把它存成pb檔再重新load pb測試時,他的結果都是不正確的… 想請問這樣到底是發生什麼問題了…
4
回應 12
文章資訊
Logo
每週有 29 則貼文
共 12 則留言
國立高雄第一科技大學
如果是圖片辨識的話會不會測試的時候load圖片通道是RGB,但訓練是用BGR,因為我有遇過這個問題,分享一下。
原 PO - 國立交通大學
B1 我的圖片只有黑白…
國立臺灣大學
over-fitting?
原 PO - 國立交通大學
B3 我是有加上dropout0.5不曉得是不是有用 我有試過都沒有dropout辨識率超高,但是出來的結果都是不好的,這個應該就是overfitting?!
國立臺灣大學
看你的history啊 通常我不會先使用dropout, 確定模型over-fitting才會使用dropout
國立臺灣大學
B4 over-fitting明顯會 training曲線比validation高很多
國立臺灣大學
你可以試著看看把callback的history視覺化比較有可能知道有什麼問題
原 PO - 國立交通大學
B7 好那我再試試 謝謝你!
國立臺灣大學 資訊工程學研究所
input 有normalize嗎
原 PO - 國立交通大學
B9 沒有欸,因為儲存成pb檔的時候都會報錯所以只放dropout…
國立臺灣大學 資訊工程學研究所
一定要看你用的pretrain model用的是什麼正規化
國立清華大學 資訊安全研究所
...感覺 原 PO 是不是 都在做排列組合阿 每一層的 意義 不一樣 然後 前後 的組合 也會造成不同的意義 造成的問題原因也不太一樣 說實在的 沒看過 你 summary 的結構 我還真猜不出來你發生什麼事 單看文字來看 應該是 過度擬合了 小心參數過多的問題 還有 dropout 要放對情況 像是 參數已經過多 之類的 (這也不一定 這些都有論文去研究可以去找找看 然後 Normalization 的選擇可能也有差 你還用了 哪種? BatchNormalization ?