日本免费高清视频-国产福利视频导航-黄色在线播放国产-天天操天天操天天操天天操|www.shdianci.com

學無先后,達者為師

網站首頁 編程語言 正文

sklearn.linear_model.Perceptron詳解

作者:taotaoiit 更新時間: 2022-10-14 編程語言

sklearn.linear_model.Perceptron詳解

形式

class sklearn.linear_model.Perceptron(*, penalty=None, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=1000, tol=0.001, shuffle=True, verbose=0, eta0=1.0, n_jobs=None, random_state=0, early_stopping=False, validation_fraction=0.1, n_iter_no_change=5, class_weight=None, warm_start=False)

參數

  • penalty : {‘l2’,’l1’,’elasticnet’}, default=None

    懲罰項,用來正則化。

  • alpha: float, default=0.0001

    懲罰項之前的常數,調控正則化的權重比例

  • l1_ratio: float, default=0.15

    當選用了penalty=elasticnet時,其為混合正則項,該參數可以控制L1正則項與L2正則項的比例

  • fit_intercept: bool, default=True

    是否需要計算截距b的值

  • max_iter: int, default=1000

    最大迭代次數,只影響fit方法,對partial_fit沒影響

  • tol: float, default=1e-3

    迭代停止規則,如果tol不為None值當上一輪的損失值-當前輪的損失值<tol時,訓練停止。

  • shuffle: bool, default=True

    在每一輪訓練結束后是否打亂數據

  • verbose: int, default=0

    是否輸出訓練日志,1為輸出,0為不輸出

  • eta0: float, default=1

    學習率,決定梯度下降時每次參數變化的幅度

  • n_jobs: int, default=None

    在多分類時使用的CPU數量,默認為None(或1),若為-1則使用所有CPU

  • random_state: int, RandomState instance or None, default=0

    當 shuffle =True時,用于標記打亂訓練數據的隨機種子,可以方便下次復用

  • early_stopping: bool, default=False

    驗證時是否使用提前停止終止訓練。分數沒有提高。如果設置為True,它將自動留出訓練數據的分層部分作為驗證,并在n_iter_no_change連續周期的驗證得分沒有提高至少tol時終止訓練。

  • validation_fraction: float, default=0.1

    訓練數據的比例留作早期停止的驗證集。必須在0和1之間。僅在early_stopped為True時使用。

  • n_iter_no_change: int, default=5

    在提前停止之前等待沒有改進的迭代數。

  • class_weight: dict, {class_label: weight} or “balanced”, default=None

    與類關聯的權重。如果沒有給出,所有類的權重都是1。

    “balanced”模式使用y的值自動調整權重,權重與輸入數據中的類頻率成反比,即n_samples / (n_classes * np.bincount(y))。

  • warm_start: bool, default=False

    若為True則調用前一次設置的參數,使用之前設置的參數,詳情見warm_start詳解

屬性

  • classes_: ndarray of shape (n_classes,)

    放著y所有分類的數組,如感知機是array([-1., 1.])

  • coef_: ndarray of shape (1, n_features) if n_classes == 2 else (n_classes, n_features)

    存放模型參數w,當為多(k)分類時,感知機啟用默認多分類規則one-vs-rest導致出現k個參數w

  • intercept_: ndarray of shape (1,) if n_classes == 2 else (n_classes,)

    存放模型參數b,當為多(k)分類時,感知機啟用默認多分類規則one-vs-rest導致出現k個參數b

  • loss_function_: concrete LossFunction

    查看選取的損失函數

  • n_features_in_: int

    fit期間的特征數量

  • n_iter_: int

    達到停止條件的實際迭代次數。對于多分類擬合,它是每一個二元擬合的最大值。

  • t_: int

    在訓練過程中進行重量更新的次數。與 ( n _ i t e r _ ? n _ s a m p l e s ) (n\_iter\_ \cdot n\_samples) (n_iter_?n_samples)相同。

方法

  • decision_function(X)

    返回樣本到分類器分離超平面的距離,若對于多分類,則返回(樣本數,類別數)大小的數組表示,正數表示正類,負數表示負類,詳解見此鏈接:http://www.shdianci.com/article/24835.html

  • densify()

    將coef_成員(返回)轉換為numpy.ndarray。這是coef_的默認格式,是擬合所必需的,因此只需要在先前被稀疏化的模型上調用此方法;否則,它就是無效的。

  • fit(X, y, coef_init=None, intercept_init=None, sample_weight=None)

    隨機梯度下降擬合線性模型

    在這里插入圖片描述

  • get_params([deep])

    在這里插入圖片描述

  • partial_fit(X, y[, classes, sample_weight])

    對樣本進行一次隨機梯度下降,一次就結束,不保證效果

  • predict(X)

    預測樣本的類別

    在這里插入圖片描述

  • score(X, y[, sample_weight])

    輸入測試數據集,返回測試集中預測正確的樣本所占比例

    在這里插入圖片描述

  • set_params(**params)

    修改模型的參數

  • sparsify()

    coef_數據稀疏化,變為scipy.sparse matrix格式,提高儲存效率,l1正則化模型在內存和存儲方面比通常的numpy要高效得多。可用densify()還原,注意!intercept_沒有被稀疏化


原文鏈接:https://blog.csdn.net/weixin_45804601/article/details/127287339

欄目分類
最近更新