網站首頁 編程語言 正文
參數數量及其作用
tf.layers.dense用于添加一個全連接層。
函數如下:
tf.layers.dense(
inputs, #層的輸入
units, #該層的輸出維度
activation=None, #激活函數
use_bias=True,
kernel_initializer=None, # 卷積核的初始化器
bias_initializer=tf.zeros_initializer(), # 偏置項的初始化器
kernel_regularizer=None, # 卷積核的正則化
bias_regularizer=None, # 偏置項的正則化
activity_regularizer=None,
kernel_constraint=None,
bias_constraint=None,
trainable=True,
name=None, # 層的名字
reuse=None # 是否重復使用參數
)
部分參數解釋:
inputs:輸入該層的數據。
units:該層的輸出維度。
activation:激活函數。
use_bias:是否使用偏置項。
trainable=True : 表明該層的參數是否參與訓練。
示例
手寫體例子,利用兩個dense可以構成一個單層網絡,在下面例子中,網絡的神經元個數為200。
import numpy as np
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
def compute_accuracy(x_data,y_data):
global dense2
y_pre = sess.run(dense2,feed_dict={xs:x_data})
correct_prediction = tf.equal(tf.arg_max(y_data,1),tf.arg_max(y_pre,1)) #判斷是否相等
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32)) #賦予float32數據類型,求平均。
result = sess.run(accuracy,feed_dict = {xs:batch_xs,ys:batch_ys}) #執行
return result
mnist = input_data.read_data_sets("MNIST_data",one_hot = "true")
xs = tf.placeholder(tf.float32,[None,784])
ys = tf.placeholder(tf.float32,[None,10])
dense1 = tf.layers.dense(
xs,
200,
activation = tf.nn.tanh,
kernel_initializer=tf.random_normal_initializer(mean=0, stddev=0.3),
bias_initializer=tf.constant_initializer(0.1),
name='fc1'
)
dense2 = tf.layers.dense(
dense1,
10,
activation = tf.nn.softmax,
kernel_initializer=tf.random_normal_initializer(mean=0, stddev=0.3),
bias_initializer=tf.constant_initializer(0.1),
name='fc2'
)
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = dense2, labels = ys),name = 'loss')
#label是標簽,logits是預測值,交叉熵。
train = tf.train.GradientDescentOptimizer(0.5).minimize(loss)
init = tf.initialize_all_variables()
with tf.Session() as sess:
sess.run(init)
for i in range(5001):
batch_xs,batch_ys = mnist.train.next_batch(100)
sess.run(train,feed_dict = {xs:batch_xs,ys:batch_ys})
if i % 1000 == 0:
print("訓練%d次的識別率為:%f。"%((i+1),compute_accuracy(mnist.test.images,mnist.test.labels)))
實驗結果為:
訓練1次的識別率為:0.107400。
訓練1001次的識別率為:0.805200。
訓練2001次的識別率為:0.822800。
訓練3001次的識別率為:0.829400。
訓練4001次的識別率為:0.833100。
訓練5001次的識別率為:0.835300。
原文鏈接:https://blog.csdn.net/weixin_44791964/article/details/99685428
相關推薦
- 2023-03-03 PostgreSQL死鎖了怎么辦及處理方法_PostgreSQL
- 2022-09-04 Linux?sed工具的使用及工作原理_linux shell
- 2023-12-18 YAMLException異常產生原因及解決方案
- 2023-03-26 Android視圖綁定方法深入探究_Android
- 2022-09-22 uni ui 、color ui 圖標icon的使用
- 2022-05-11 C#對集合進行排序_C#教程
- 2022-07-29 linux目錄管理方法介紹_linux shell
- 2022-07-07 Python實現8個概率分布公式的方法詳解_python
- 最近更新
-
- window11 系統安裝 yarn
- 超詳細win安裝深度學習環境2025年最新版(
- Linux 中運行的top命令 怎么退出?
- MySQL 中decimal 的用法? 存儲小
- get 、set 、toString 方法的使
- @Resource和 @Autowired注解
- Java基礎操作-- 運算符,流程控制 Flo
- 1. Int 和Integer 的區別,Jav
- spring @retryable不生效的一種
- Spring Security之認證信息的處理
- Spring Security之認證過濾器
- Spring Security概述快速入門
- Spring Security之配置體系
- 【SpringBoot】SpringCache
- Spring Security之基于方法配置權
- redisson分布式鎖中waittime的設
- maven:解決release錯誤:Artif
- restTemplate使用總結
- Spring Security之安全異常處理
- MybatisPlus優雅實現加密?
- Spring ioc容器與Bean的生命周期。
- 【探索SpringCloud】服務發現-Nac
- Spring Security之基于HttpR
- Redis 底層數據結構-簡單動態字符串(SD
- arthas操作spring被代理目標對象命令
- Spring中的單例模式應用詳解
- 聊聊消息隊列,發送消息的4種方式
- bootspring第三方資源配置管理
- GIT同步修改后的遠程分支