日本免费高清视频-国产福利视频导航-黄色在线播放国产-天天操天天操天天操天天操|www.shdianci.com

學無先后,達者為師

網站首頁 編程語言 正文

Python實現計算AUC的示例代碼_python

作者:lieyingkub99 ? 更新時間: 2022-09-03 編程語言

AUC(Area under curve)是機器學習常用的二分類評測手段,直接含義是ROC曲線下的面積,如下圖:

這里寫圖片描述

要理解這張圖的含義,得先理解下面這個表:

這里寫圖片描述

表中列代表預測分類,行代表實際分類:

  • 實際1,預測1:真正類(tp)
  • 實際1,預測0:假負類(fn)
  • 實際0,預測1:假正類(fp)
  • 實際0,預測0:真負類(tn)
  • 真實負樣本總數=n=fp+tn
  • 真實正樣本總數=p=tp+fn

在第一張圖中,

橫坐標false positive rate 代表假正類率,由fp/n計算得到,

意為 在實際負樣本中出現預測正樣本的概率。

縱坐標true positive rate 代表真正類率,由tp/p計算得到,

意為 在實際正樣本中出現預測正樣本的概率。

為什么這樣一個指標可以衡量分類效果

先來看看如何得到這條曲線:

1. 通過分類器得到每個樣本的預測概率,對其從高到低進行排序

2. 從高到低,分別以每一個預測概率作為閾值,大于該閾值的認定其為1,小于的為0,計算fp rate和tp rate。

對于一個有分類效果(效果比隨機要好)的分類器,剛開始將高概率作為閾值時,閾值以上的真正樣本占全部正樣本的比例(tp rate)>閾值以上的假正樣本占全部負樣本的比例(fp rate)。

auc理解

auc就是:隨機抽出一對樣本(一個正樣本,一個負樣本),然后用訓練得到的分類器來對這兩個樣本進行預測,預測得到正樣本的概率大于負樣本概率的概率。

AUC計算

方法一

在有M個正樣本,N個負樣本的數據集里。一共有M*N對樣本(一對樣本即,一個正樣本與一個負樣本)。統計這M*N對樣本里,正樣本的預測概率大于負樣本的預測概率的個數。

這里寫圖片描述

舉個例子:

這里寫圖片描述

假設有4條樣本。2個正樣本,2個負樣本,那么M*N=4。

即總共有4個樣本對。分別是:

(D,B),(D,A),(C,B),(C,A)。

在(D,B)樣本對中,正樣本D預測的概率大于負樣本B預測的概率(也就是D的得分比B高),記為1

同理,對于(C,B)。正樣本C預測的概率小于負樣本C預測的概率,記為0.

那么auc如下:

這里寫圖片描述

假如出現得分一致的時候:

這里寫圖片描述

同樣本是4個樣本對,對于樣本對(C,B)其I值為0.5。

這里寫圖片描述

方法二

利公式:

● 對預測概率從高到低排序

● 對每一個概率值設一個rank值(最高的概率的rank為n,第二高的為n-1)

● rank實際上代表了該score(預測概率)超過的樣本的數目

為了求的組合中正樣本的score值大于負樣本,如果所有的正樣本score值都是大于負樣本的,那么第一位與任意的進行組合score值都要大,我們取它的rank值為n,但是n-1中有M-1是正樣例和正樣例的組合這種是不在統計范圍內的(為計算方便我們取n組,相應的不符合的有M個),所以要減掉,那么同理排在第二位的n-1,會有M-1個是不滿足的,依次類推,故得到后面的公式M*(M+1)/2,我們可以驗證在正樣本score都大于負樣本的假設下,AUC的值為1

● 除以M*N

這里寫圖片描述

舉例說明:

這里寫圖片描述

排序。按概率排序后得到:

按照上面的公式,只把正樣本的序號加起來也就是只把樣本C,D的rank值加起來后減去一個常數項:

這里寫圖片描述

得到:

這里寫圖片描述

如果出現得分一樣的情況:

這里寫圖片描述

假如有4個取值概率為0.5,而且既有正樣本也有負樣本的情況。計算的時候,其實原則就是相等得分的rank取平均值。具體來說如下:

先排序:

這里寫圖片描述

這里需要注意的是:相等概率得分的樣本,無論正負,誰在前,誰在后無所謂。

由于只考慮正樣本的rank值:

對于正樣本A,其rank值為7

對于正樣本B,其rank值為6

對于正樣本E,其rank值為(5+4+3+2)/4

對于正樣本F,其rank值為(5+4+3+2)/4

這里寫圖片描述

實現及驗證

采用sklearn中的庫函數驗證:

import numpy as np
from sklearn.metrics import roc_curve
from sklearn.metrics import auc

#---自己按照公式實現
def auc_calculate(labels,preds,n_bins=100):
    postive_len = sum(labels)
    negative_len = len(labels) - postive_len
    total_case = postive_len * negative_len
    pos_histogram = [0 for _ in range(n_bins)]
    neg_histogram = [0 for _ in range(n_bins)]
    bin_width = 1.0 / n_bins
    for i in range(len(labels)):
        nth_bin = int(preds[i]/bin_width)
        if labels[i]==1:
            pos_histogram[nth_bin] += 1
        else:
            neg_histogram[nth_bin] += 1
    accumulated_neg = 0
    satisfied_pair = 0
    for i in range(n_bins):
        satisfied_pair += (pos_histogram[i]*accumulated_neg + pos_histogram[i]*neg_histogram[i]*0.5)
        accumulated_neg += neg_histogram[i]

    return satisfied_pair / float(total_case)

if __name__ == '__main__':

    y = np.array([1,0,0,0,1,0,1,0,])
    pred = np.array([0.9, 0.8, 0.3, 0.1,0.4,0.9,0.66,0.7])


    fpr, tpr, thresholds = roc_curve(y, pred, pos_label=1)
    print("-----sklearn:",auc(fpr, tpr))
    print("-----py腳本:",auc_calculate(y,pred))

這里寫圖片描述

AUC的優點

它不受類別不平衡問題的影響,不同的樣本比例不會影響AUC的評測結果。在訓練時,可以直接使用AUC作為損失函數。

原文鏈接:https://blog.csdn.net/lieyingkub99/article/details/81266664

欄目分類
最近更新