日本免费高清视频-国产福利视频导航-黄色在线播放国产-天天操天天操天天操天天操|www.shdianci.com

學無先后,達者為師

網站首頁 編程語言 正文

python神經網絡學習使用Keras進行回歸運算_python

作者:Bubbliiiing ? 更新時間: 2022-06-28 編程語言

學習前言

看了好多Github,用于保存模型的庫都是Keras,我覺得還是好好學習一下的好

什么是Keras

Keras是一個由Python編寫的開源人工神經網絡庫,可以作Tensorflow、Microsoft-CNTK和Theano的高階應用程序接口,進行深度學習模型的設計、調試、評估、應用和可視化。

Keras相當于比Tensorflow和Theano更高一層的庫,其可以以Tensorflow或者Theano為底層框架,以更加簡潔、高效的方式添加代碼。

在2018年Tensorflow 2.0.0公開后,Keras被正式確立為Tensorflow高階API。

Keras中基礎的重要函數

1、Sequential

Sequential又稱為序貫模型。

序貫模型為最簡單的線性、從頭到尾的結構順序,不分叉,是多個網絡層的線性堆疊。

在利用Keras進行模型構建前,只需要用如下函數建立模型就夠了。

model = Sequential()

此時便已經建立了一個按次序的模型,之后在往模型中添加層的時候,就是按照次序添加的。

2、Dense

Dense用于往Sequential中添加全連接層。全連接層示意圖如下。(圖片源自百度百科)

在這里插入圖片描述

具體而言,簡單的BP神經網絡中,輸入層到隱含層中間的權值連接,其實與全連接層的意義相同。
在Keras中,如果需要往model中添加全連接層,可使用如下函數。

model.add(Dense(output_dim = 1,input_dim = 1))

此時表示輸入維度為1,輸出維度也為1。

3、model.compile

model.compile在Keras中的作用主要用于定義loss函數和優化器。

其調用方式如下:

model.compile(loss='mse', optimizer='sgd', metrics=['accuracy'])

其中loss用于定義計算損失的損失函數,其可以選擇的內容如下:
1、mse:均方根誤差,常用于回歸預測。

2、categorical_crossentropy:亦稱作多類的對數損失,注意使用該目標函數時,需要將標簽轉化為形如(nb_samples, nb_classes)的二值序列,常用于分類。

3、sparse_categorical_crossentrop:如上,但接受稀疏標簽。

optimizer用于定義優化器,可以使用默認的,也可以從keras.optimizers導出。

其可以選擇的內容可以參照Keras中文文檔。上文中選擇的是隨機梯度下降法sgd。

metrics=[‘accuracy’]常用于分類運算中,本例子中不適用,accuracy代表計算分類精確度。

全部代碼

該例子為一元線性回歸例子。

import numpy as np
from keras.models import Sequential
from keras.layers import Dense  ## 全連接層
import matplotlib.pyplot as plt 
# 生成測試數據
X = np.linspace(-1,1,200)
np.random.shuffle(X)
Y = 0.5*X + 2 + np.random.normal(0,0.05,(200,))
# 劃分訓練集和測試集
X_train,Y_train = X[:160],Y[:160]
X_test,Y_test = X[160:],Y[160:]
# start
model = Sequential()
model.add(Dense(output_dim = 1,input_dim = 1))
# compile
model.compile(loss = 'mse',optimizer = 'sgd')
# 訓練
print("\ntraining")
for step in range(2001):
    cost = model.train_on_batch(X_train,Y_train)
    if step%100 == 0:
        print("tarin_cost:",cost)
# 測試
print("\nTest")
cost = model.evaluate(X_test,Y_test,batch_size=40)
W,b = model.layers[0].get_weights()
print("Weights",W,"biaxes",b)
# 預測結果
Y = model.predict(X_test)
plt.scatter(X_test,Y_test)
plt.plot(X_test,Y)
plt.show()

實現結果為:

tarin_cost: 4.506874
tarin_cost: 0.21098542
tarin_cost: 0.041809298
tarin_cost: 0.013134768
tarin_cost: 0.0055761375
tarin_cost: 0.0035068158
tarin_cost: 0.0029388934
tarin_cost: 0.002783
tarin_cost: 0.0027402083
tarin_cost: 0.002728462
tarin_cost: 0.0027252387
tarin_cost: 0.0027243525
tarin_cost: 0.0027241106
tarin_cost: 0.0027240426
tarin_cost: 0.002724025
tarin_cost: 0.0027240203
tarin_cost: 0.0027240184
tarin_cost: 0.0027240182
tarin_cost: 0.0027240175
tarin_cost: 0.0027240175
tarin_cost: 0.0027240175
Test
40/40 [==============================] - 0s 874us/step
Weights [[0.5041559]] biaxes [1.9961643]

在這里插入圖片描述

原文鏈接:https://blog.csdn.net/weixin_44791964/article/details/101168500

欄目分類
最近更新