溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

關(guān)于keras中自定義二分類任務(wù)評(píng)價(jià)指標(biāo)metrics的用法

發(fā)布時(shí)間:2020-06-23 17:50:28 來(lái)源:億速云 閱讀:2007 作者:清晨 欄目:開發(fā)技術(shù)

不懂keras中自定義二分類任務(wù)評(píng)價(jià)指標(biāo)metrics的用法?其實(shí)想解決這個(gè)問(wèn)題也不難,下面讓小編帶著大家一起學(xué)習(xí)怎么去解決,希望大家閱讀完這篇文章后大所收獲。

對(duì)于二分類任務(wù),keras現(xiàn)有的評(píng)價(jià)指標(biāo)只有binary_accuracy,即二分類準(zhǔn)確率,但是評(píng)估模型的性能有時(shí)需要一些其他的評(píng)價(jià)指標(biāo),例如精確率,召回率,F(xiàn)1-score等等,因此需要使用keras提供的自定義評(píng)價(jià)函數(shù)功能構(gòu)建出針對(duì)二分類任務(wù)的各類評(píng)價(jià)指標(biāo)。

keras提供的自定義評(píng)價(jià)函數(shù)功能需要以如下兩個(gè)張量作為輸入,并返回一個(gè)張量作為輸出。

y_true:數(shù)據(jù)集真實(shí)值組成的一階張量。

y_pred:數(shù)據(jù)集輸出值組成的一階張量。

tf.round()可對(duì)張量四舍五入,因此tf.round(y_pred)即是預(yù)測(cè)值張量。

1-tf.round(y_pred)即是預(yù)測(cè)值張量取反。

1-y_true即是真實(shí)值張量取反。

tf.reduce_sum()可對(duì)張量求和。

由此可以根據(jù)定義構(gòu)建出四個(gè)基礎(chǔ)指標(biāo)TP、TN、FP、FN,然后進(jìn)一步構(gòu)建出進(jìn)階指標(biāo)precision、recall、F1score,最后在編譯階段引用上述自定義評(píng)價(jià)指標(biāo)即可。

keras中自定義二分類任務(wù)常用評(píng)價(jià)指標(biāo)及其引用的代碼如下

import tensorflow as tf

#精確率評(píng)價(jià)指標(biāo)
def metric_precision(y_true,y_pred): 
 TP=tf.reduce_sum(y_true*tf.round(y_pred))
 TN=tf.reduce_sum((1-y_true)*(1-tf.round(y_pred)))
 FP=tf.reduce_sum((1-y_true)*tf.round(y_pred))
 FN=tf.reduce_sum(y_true*(1-tf.round(y_pred)))
 precision=TP/(TP+FP)
 return precision

#召回率評(píng)價(jià)指標(biāo)
def metric_recall(y_true,y_pred): 
 TP=tf.reduce_sum(y_true*tf.round(y_pred))
 TN=tf.reduce_sum((1-y_true)*(1-tf.round(y_pred)))
 FP=tf.reduce_sum((1-y_true)*tf.round(y_pred))
 FN=tf.reduce_sum(y_true*(1-tf.round(y_pred)))
 recall=TP/(TP+FN)
 return recall

#F1-score評(píng)價(jià)指標(biāo)
def metric_F1score(y_true,y_pred): 
 TP=tf.reduce_sum(y_true*tf.round(y_pred))
 TN=tf.reduce_sum((1-y_true)*(1-tf.round(y_pred)))
 FP=tf.reduce_sum((1-y_true)*tf.round(y_pred))
 FN=tf.reduce_sum(y_true*(1-tf.round(y_pred)))
 precision=TP/(TP+FP)
 recall=TP/(TP+FN)
 F1score=2*precision*recall/(precision+recall)
 return F1score

#編譯階段引用自定義評(píng)價(jià)指標(biāo)示例
model.compile(optimizer='adam',
	 loss='binary_crossentropy',
	 metrics=['accuracy',
	 		metric_precision,
	 		metric_recall,
	 		metric_F1score])

補(bǔ)充知識(shí):keras sklearn下兩分類/多分類的技術(shù)雜談(交叉驗(yàn)證和評(píng)價(jià)指標(biāo))

一.前言

這篇博客是為了記錄論文補(bǔ)充實(shí)驗(yàn)中所遇到的問(wèn)題,以及解決方法,主要以程序的形式呈現(xiàn)。

二.對(duì)象

深度學(xué)習(xí)框架:keras

研究對(duì)象:兩分類/多分類

三.技術(shù)雜談

1.K-FOLD交叉驗(yàn)證

1.概念

對(duì)一個(gè)模型進(jìn)行K次訓(xùn)練,每次訓(xùn)練將整個(gè)數(shù)據(jù)集分為隨機(jī)的K份,K-1作為訓(xùn)練集,剩余的1份作為驗(yàn)證集,每次訓(xùn)練結(jié)束將驗(yàn)證集上的性能指標(biāo)保存下來(lái),最后對(duì)K個(gè)結(jié)果進(jìn)行平均得到最終的模型性能指標(biāo)。

2.優(yōu)缺點(diǎn)

優(yōu)點(diǎn):模型評(píng)估更加魯棒

缺點(diǎn):訓(xùn)練時(shí)間加大

3.代碼

① sklearn與keras獨(dú)立使用

from sklearn.model_selection import StratifiedKFold
import numpy

seed = 7 # 隨機(jī)種子
numpy.random.seed(seed) # 生成固定的隨機(jī)數(shù)
num_k = 5 # 多少折

# 整個(gè)數(shù)據(jù)集(自己定義)
X = 
Y = 

kfold = StratifiedKFold(n_splits=num_k, shuffle=True, random_state=seed) # 分層K折,保證類別比例一致

cvscores = []
for train, test in kfold.split(X, Y):

	# 可以用sequential或者function的方式建模(自己定義)
	model = 
 model.compile() # 自定義
 
	# 模型訓(xùn)練
 model.fit(X[train], Y[train], epochs=150, batch_size=10, verbose=0)
 
 # 模型測(cè)試
 scores = model.evaluate(X[test], Y[test], verbose=0)
 
 print("%s: %.2f%%" % (model.metrics_names[1], scores[1]*100)) # 打印出驗(yàn)證集準(zhǔn)確率
 
 cvscores.append(scores[1] * 100)
 
print("%.2f%% (+/- %.2f%%)" % (numpy.mean(cvscores), numpy.std(cvscores))) # 輸出k-fold的模型平均和標(biāo)準(zhǔn)差結(jié)果

② sklearn與keras結(jié)合使用

from keras.wrappers.scikit_learn import KerasClassifier # 使用keras下的sklearn API
from sklearn.cross_validation import StratifiedKFold, cross_val_score
import numpy as np

seed = 7 # 隨機(jī)種子
numpy.random.seed(seed) # 生成固定的隨機(jī)數(shù)
num_k = 5 # 多少折

# 整個(gè)數(shù)據(jù)集(自己定義)
X = 
Y = 

# 創(chuàng)建模型
def model():
 # 可以用sequential或者function的方式建模(自己定義)
	model = 
	return model 

model = KerasClassifier(build_fn=model, epochs=150, batch_size=10)
kfold = StratifiedKFold(Y, n_folds=num_k, shuffle=True, random_state=seed)
results = cross_val_score(model, X, Y, cv=kfold)
print(np.average(results)) # 輸出k-fold的模型平均結(jié)果

補(bǔ)充:引入keras的callbacks

只需要在①②中的model.fit中加入一個(gè)arg:callbacks=[keras.callbacks.ModelCheckpoint()] # 這樣可以保存下模型的權(quán)重,當(dāng)然了你也可以使用callbacks.TensorBoard保存下訓(xùn)練過(guò)程

2.二分類/多分類評(píng)價(jià)指標(biāo)

1.概念

二分類就是說(shuō),一個(gè)目標(biāo)的標(biāo)簽只有兩種之一(例如:0或1,對(duì)應(yīng)的one-hot標(biāo)簽為[1,0]或[0,1])。對(duì)于這種問(wèn)題,一般可以采用softmax或者logistic回歸來(lái)完成,分別采用cross-entropy和mse損失函數(shù)來(lái)進(jìn)行網(wǎng)絡(luò)訓(xùn)練,分別輸出概率分布和單個(gè)的sigmoid預(yù)測(cè)值(0,1)。

多分類就是說(shuō),一個(gè)目標(biāo)的標(biāo)簽是幾種之一(如:0,1,2…)

2.評(píng)價(jià)指標(biāo)

主要包含了:準(zhǔn)確率(accuracy),錯(cuò)誤率(error rate),精確率(precision),召回率(recall)= 真陽(yáng)率(TPR)= 靈敏度(sensitivity),F(xiàn)1-measure(包含了micro和macro兩種),假陽(yáng)率(FPR),特異度(specificity),ROC(receiver operation characteristic curve)(包含了micro和macro兩種),AUC(area under curve),P-R曲線(precision-recall),混淆矩陣

① 準(zhǔn)確率和錯(cuò)誤率

accuracy = (TP+TN)/ (P+N)或者accuracy = (TP+TN)/ (T+F)

error rate = (FP+FN) / (P+N)或者(FP+FN) / (T+F)

accuracy = 1 - error rate

可見(jiàn):準(zhǔn)確率、錯(cuò)誤率是對(duì)分類器在整體數(shù)據(jù)上的評(píng)價(jià)指標(biāo)。

② 精確率

precision=TP /(TP+FP)

可見(jiàn):精確率是對(duì)分類器在預(yù)測(cè)為陽(yáng)性的數(shù)據(jù)上的評(píng)價(jià)指標(biāo)。

③ 召回率/真陽(yáng)率/靈敏度

recall = TPR = sensitivity = TP/(TP+FN)

可見(jiàn):召回率/真陽(yáng)率/靈敏度是對(duì)分類器在整個(gè)陽(yáng)性數(shù)據(jù)上的評(píng)價(jià)指標(biāo)。

④ F1-measure

F1-measure = 2 * (recall * precision / (recall + precision))

包含兩種:micro和macro(對(duì)于多類別分類問(wèn)題,注意區(qū)別于多標(biāo)簽分類問(wèn)題)

1)micro

計(jì)算出所有類別總的precision和recall,然后計(jì)算F1-measure

2)macro

計(jì)算出每一個(gè)類的precison和recall后計(jì)算F1-measure,最后將F1-measure平均

可見(jiàn):F1-measure是對(duì)兩個(gè)矛盾指標(biāo)precision和recall的一種調(diào)和。

⑤ 假陽(yáng)率

FPR=FP / (FP+TN)

可見(jiàn):假陽(yáng)率是對(duì)分類器在整個(gè)陰性數(shù)據(jù)上的評(píng)價(jià)指標(biāo),針對(duì)的是假陽(yáng)。

⑥ 特異度

specificity = 1- FPR

可見(jiàn):特異度是對(duì)分類器在整個(gè)陰性數(shù)據(jù)上的評(píng)價(jià)指標(biāo),針對(duì)的是真陰。

⑦ ROC曲線和AUC

作用:靈敏度與特異度的綜合指標(biāo)

橫坐標(biāo):FPR/1-specificity

縱坐標(biāo):TPR/sensitivity/recall

AUC是ROC右下角的面積,越大,表示分類器的性能越好

包含兩種:micro和macro(對(duì)于多類別分類問(wèn)題,注意區(qū)別于多標(biāo)簽分類問(wèn)題)

假設(shè)一共有M個(gè)樣本,N個(gè)類別。預(yù)測(cè)出來(lái)的概率矩陣P(M,N),標(biāo)簽矩陣L (M,N)

1)micro

根據(jù)P和L中的每一列(對(duì)整個(gè)數(shù)據(jù)集而言),計(jì)算出各閾值下的TPR和FPR,總共可以得到N組數(shù)據(jù),分別畫出N個(gè)ROC曲線,最后取平均

2)macro

將P和L按行展開,然后轉(zhuǎn)置為兩列,最后畫出一個(gè)ROC曲線

⑧ P-R曲線

橫軸:recall

縱軸:precision

評(píng)判:1)直觀看,P-R包圍的面積越大越好,P=R的點(diǎn)越大越好;2)通過(guò)F1-measure來(lái)看

比較ROC和P-R: 當(dāng)樣本中的正、負(fù)比例不平衡的時(shí)候,ROC曲線基本保持不變,而P-R曲線變化很大,原因如下:

當(dāng)負(fù)樣本的比例增大時(shí),在召回率一定的情況下,那么表現(xiàn)較差的模型必然會(huì)召回更多的負(fù)樣本,TP降低,F(xiàn)P迅速增加(對(duì)于性能差的分類器而言),precision就會(huì)降低,所以P-R曲線包圍的面積會(huì)變小。

⑨ 混淆矩陣

行表示的是樣本中的一種真類別被預(yù)測(cè)的結(jié)果,列表示的是一種被預(yù)測(cè)的標(biāo)簽所對(duì)應(yīng)的真類別。

3.代碼

注意:以下的代碼是合在一起寫的,有注釋。

from sklearn import datasets
import numpy as np
from sklearn.preprocessing import label_binarize
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import confusion_matrix, precision_score, accuracy_score,recall_score, f1_score,roc_auc_score, precision_recall_fscore_support, roc_curve, classification_report
import matplotlib.pyplot as plt

iris = datasets.load_iris()
x, y = iris.data, iris.target
print("label:", y)
n_class = len(set(iris.target))
y_one_hot = label_binarize(y, np.arange(n_class))

# alpha = np.logspace(-2, 2, 20) #設(shè)置超參數(shù)范圍
# model = LogisticRegressionCV(Cs = alpha, cv = 3, penalty = 'l2') #使用L2正則化
model = LogisticRegression() # 內(nèi)置了最大迭代次數(shù)了,可修改
model.fit(x, y)
y_score = model.predict(x) # 輸出的是整數(shù)標(biāo)簽
mean_accuracy = model.score(x, y)
print("mean_accuracy: ", mean_accuracy)
print("predict label:", y_score)
print(y_score==y)
print(y_score.shape)
y_score_pro = model.predict_proba(x) # 輸出概率
print(y_score_pro)
print(y_score_pro.shape)
y_score_one_hot = label_binarize(y_score, np.arange(n_class)) # 這個(gè)函數(shù)的輸入必須是整數(shù)的標(biāo)簽哦
print(y_score_one_hot.shape)

obj1 = confusion_matrix(y, y_score) # 注意輸入必須是整數(shù)型的,shape=(n_samples, )
print('confusion_matrix\n', obj1)

print(y)
print('accuracy:{}'.format(accuracy_score(y, y_score))) # 不存在average
print('precision:{}'.format(precision_score(y, y_score,average='micro')))
print('recall:{}'.format(recall_score(y, y_score,average='micro')))
print('f1-score:{}'.format(f1_score(y, y_score,average='micro')))
print('f1-score-for-each-class:{}'.format(precision_recall_fscore_support(y, y_score))) # for macro
# print('AUC y_pred = one-hot:{}\n'.format(roc_auc_score(y_one_hot, y_score_one_hot,average='micro'))) # 對(duì)于multi-class輸入必須是proba,所以這種是錯(cuò)誤的

# AUC值
auc = roc_auc_score(y_one_hot, y_score_pro,average='micro') # 使用micro,會(huì)計(jì)算n_classes個(gè)roc曲線,再取平均
print("AUC y_pred = proba:", auc)
# 畫ROC曲線
print("one-hot label ravelled shape:", y_one_hot.ravel().shape)
fpr, tpr, thresholds = roc_curve(y_one_hot.ravel(),y_score_pro.ravel()) # ravel()表示平鋪開來(lái),因?yàn)檩斎氲膕hape必須是(n_samples,)
print("threshold: ", thresholds)
plt.plot(fpr, tpr, linewidth = 2,label='AUC=%.3f' % auc)
plt.plot([0,1],[0,1], 'k--') # 畫一條y=x的直線,線條的顏色和類型
plt.axis([0,1.0,0,1.0]) # 限制坐標(biāo)范圍
plt.xlabel('False Postivie Rate')
plt.ylabel('True Positive Rate')
plt.legend()
plt.show()

# p-r曲線針對(duì)的是二分類,這里就不描述了
ans = classification_report(y, y_score,digits=5) # 小數(shù)點(diǎn)后保留5位有效數(shù)字
print(ans)

感謝你能夠認(rèn)真閱讀完這篇文章,希望小編分享關(guān)于keras中自定義二分類任務(wù)評(píng)價(jià)指標(biāo)metrics的用法內(nèi)容對(duì)大家有幫助,同時(shí)也希望大家多多支持億速云,關(guān)注億速云行業(yè)資訊頻道,遇到問(wèn)題就找億速云,詳細(xì)的解決方法等著你來(lái)學(xué)習(xí)!

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI