您好,登錄后才能下訂單哦!
這篇文章主要講解了keras保存最佳訓(xùn)練模型的方法,內(nèi)容清晰明了,對此有興趣的小伙伴可以學(xué)習(xí)一下,相信大家閱讀完之后會有幫助。
1、只保存最佳的訓(xùn)練模型
2、保存有所有有提升的模型
3、加載模型
4、參數(shù)說明
只保存最佳的訓(xùn)練模型
from keras.callbacks import ModelCheckpoint filepath='weights.best.hdf5' # 有一次提升, 則覆蓋一次. checkpoint = ModelCheckpoint(filepath, monitor='val_acc', verbose=1,save_best_only=True,mode='max',period=2) callbacks_list = [checkpoint] model.compile(loss='categorical_crossentropy', optimizer=optimizers.Adam(lr=2e-6,decay=1e-7),metrics=['acc']) history1 = model.fit_generator( train_generator, steps_per_epoch=100, epochs=40, validation_data=validation_generator, validation_steps=100, callbacks=callbacks_list)
輸出的部分結(jié)果為:
Epoch 2/40 100/100 [==============================] - 24s 241ms/step - loss: 0.2715 - acc: 0.9380 - val_loss: 0.1635 - val_acc: 0.9600 Epoch 00002: val_acc improved from -inf to 0.96000, saving model to weights.best.hdf5 Epoch 3/40 100/100 [==============================] - 24s 240ms/step - loss: 0.1623 - acc: 0.9575 - val_loss: 0.1116 - val_acc: 0.9730 Epoch 4/40 100/100 [==============================] - 24s 242ms/step - loss: 0.1143 - acc: 0.9730 - val_loss: 0.0799 - val_acc: 0.9840 Epoch 00004: val_acc improved from 0.96000 to 0.98400, saving model to weights.best.hdf5
保存所有有提升的模型
from keras.callbacks import ModelCheckpoint # checkpoint filepath = "weights-improvement-{epoch:02d}-{val_acc:.2f}.hdf5" # 中途訓(xùn)練效果提升, 則將文件保存, 每提升一次, 保存一次 checkpoint = ModelCheckpoint(filepath, monitor='val_acc', verbose=1, save_best_only=True,mode='max') callbacks_list = [checkpoint] model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) history1 = model.fit_generator( train_generator, steps_per_epoch=100, epochs=40, validation_data=validation_generator, validation_steps=100, callbacks=callbacks_list)
因?yàn)槲抑幌胍罴训哪P?,所以沒有嘗試保存所有有提升的模型,結(jié)果是什么樣自己試。。。
加載最佳的模型
# load weights 加載模型權(quán)重 model.load_weights('weights.best.hdf5') #如果想加載模型,則將model.load_weights('weights.best.hdf5')改為 #model.load_model('weights.best.hdf5') # compile 編譯 model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) print('Created model and loaded weights from hdf5 file') # estimate scores = model.evaluate(validation_generator, steps=30, verbose=0) print("{0}: {1:.2f}%".format(model.metrics_names[1], scores[1]*100)) ModelCheckpoint參數(shù)說明 keras.callbacks.ModelCheckpoint(filepath,monitor='val_loss',verbose=0,save_best_only=False, save_weights_only=False, mode='auto', period=1)
filename:字符串,保存模型的路徑
monitor:需要監(jiān)視的值
verbose:信息展示模式,0或1(checkpoint的保存信息,類似Epoch 00001: saving model to ...)
(verbose = 0 為不在標(biāo)準(zhǔn)輸出流輸出日志信息;verbose = 1 為輸出進(jìn)度條記錄;verbose = 2 為每個(gè)epoch輸出一行記錄)
save_best_only:當(dāng)設(shè)置為True時(shí),監(jiān)測值有改進(jìn)時(shí)才會保存當(dāng)前的模型( the latest best model according to the quantity monitored will not be overwritten)
mode:‘a(chǎn)uto',‘min',‘max'之一,在save_best_only=True時(shí)決定性能最佳模型的評判準(zhǔn)則,例如,當(dāng)監(jiān)測值為val_acc時(shí),模式應(yīng)為max,當(dāng)監(jiān)測值為val_loss時(shí),模式應(yīng)為min。在auto模式下,評價(jià)準(zhǔn)則由被監(jiān)測值的名字自動(dòng)推斷。
save_weights_only:若設(shè)置為True,則只保存模型權(quán)重,否則將保存整個(gè)模型(包括模型結(jié)構(gòu),配置信息等)
period:CheckPoint之間的間隔的epoch數(shù)
看完上述內(nèi)容,是不是對keras保存最佳訓(xùn)練模型的方法有進(jìn)一步的了解,如果還想學(xué)習(xí)更多內(nèi)容,歡迎關(guān)注億速云行業(yè)資訊頻道。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。