網(wǎng)站首頁(yè) 編程語(yǔ)言 正文
python人工智能tensorflow函數(shù)tf.layers.dense使用方法_python
作者:Bubbliiiing ? 更新時(shí)間: 2022-06-29 編程語(yǔ)言參數(shù)數(shù)量及其作用
tf.layers.dense用于添加一個(gè)全連接層。
函數(shù)如下:
tf.layers.dense(
inputs, #層的輸入
units, #該層的輸出維度
activation=None, #激活函數(shù)
use_bias=True,
kernel_initializer=None, # 卷積核的初始化器
bias_initializer=tf.zeros_initializer(), # 偏置項(xiàng)的初始化器
kernel_regularizer=None, # 卷積核的正則化
bias_regularizer=None, # 偏置項(xiàng)的正則化
activity_regularizer=None,
kernel_constraint=None,
bias_constraint=None,
trainable=True,
name=None, # 層的名字
reuse=None # 是否重復(fù)使用參數(shù)
)
部分參數(shù)解釋:
inputs:輸入該層的數(shù)據(jù)。
units:該層的輸出維度。
activation:激活函數(shù)。
use_bias:是否使用偏置項(xiàng)。
trainable=True : 表明該層的參數(shù)是否參與訓(xùn)練。
示例
手寫(xiě)體例子,利用兩個(gè)dense可以構(gòu)成一個(gè)單層網(wǎng)絡(luò),在下面例子中,網(wǎng)絡(luò)的神經(jīng)元個(gè)數(shù)為200。
import numpy as np
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
def compute_accuracy(x_data,y_data):
global dense2
y_pre = sess.run(dense2,feed_dict={xs:x_data})
correct_prediction = tf.equal(tf.arg_max(y_data,1),tf.arg_max(y_pre,1)) #判斷是否相等
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32)) #賦予float32數(shù)據(jù)類型,求平均。
result = sess.run(accuracy,feed_dict = {xs:batch_xs,ys:batch_ys}) #執(zhí)行
return result
mnist = input_data.read_data_sets("MNIST_data",one_hot = "true")
xs = tf.placeholder(tf.float32,[None,784])
ys = tf.placeholder(tf.float32,[None,10])
dense1 = tf.layers.dense(
xs,
200,
activation = tf.nn.tanh,
kernel_initializer=tf.random_normal_initializer(mean=0, stddev=0.3),
bias_initializer=tf.constant_initializer(0.1),
name='fc1'
)
dense2 = tf.layers.dense(
dense1,
10,
activation = tf.nn.softmax,
kernel_initializer=tf.random_normal_initializer(mean=0, stddev=0.3),
bias_initializer=tf.constant_initializer(0.1),
name='fc2'
)
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = dense2, labels = ys),name = 'loss')
#label是標(biāo)簽,logits是預(yù)測(cè)值,交叉熵。
train = tf.train.GradientDescentOptimizer(0.5).minimize(loss)
init = tf.initialize_all_variables()
with tf.Session() as sess:
sess.run(init)
for i in range(5001):
batch_xs,batch_ys = mnist.train.next_batch(100)
sess.run(train,feed_dict = {xs:batch_xs,ys:batch_ys})
if i % 1000 == 0:
print("訓(xùn)練%d次的識(shí)別率為:%f。"%((i+1),compute_accuracy(mnist.test.images,mnist.test.labels)))
實(shí)驗(yàn)結(jié)果為:
訓(xùn)練1次的識(shí)別率為:0.107400。
訓(xùn)練1001次的識(shí)別率為:0.805200。
訓(xùn)練2001次的識(shí)別率為:0.822800。
訓(xùn)練3001次的識(shí)別率為:0.829400。
訓(xùn)練4001次的識(shí)別率為:0.833100。
訓(xùn)練5001次的識(shí)別率為:0.835300。
原文鏈接:https://blog.csdn.net/weixin_44791964/article/details/99685428
相關(guān)推薦
- 2024-03-23 spring boot 使用AOP實(shí)現(xiàn)是否已登錄檢測(cè)
- 2022-06-26 利用ASP.Net?Core中的Razor實(shí)現(xiàn)動(dòng)態(tài)菜單_實(shí)用技巧
- 2022-05-11 使用postman訪問(wèn)k8s api
- 2023-04-12 如何徹底解決python?NameError:name?'__file__'?is?not?defi
- 2023-11-19 psutil cpu_percent如何使用;python如何測(cè)試cpu的使用率
- 2022-05-20 SpringCloud系列:springboot改造集成nacos
- 2022-03-17 詳解Docker在哪里保存日志文件_docker
- 2022-03-29 C語(yǔ)言中的盜賊(小偷)問(wèn)題詳解_C 語(yǔ)言
- 最近更新
-
- window11 系統(tǒng)安裝 yarn
- 超詳細(xì)win安裝深度學(xué)習(xí)環(huán)境2025年最新版(
- Linux 中運(yùn)行的top命令 怎么退出?
- MySQL 中decimal 的用法? 存儲(chǔ)小
- get 、set 、toString 方法的使
- @Resource和 @Autowired注解
- Java基礎(chǔ)操作-- 運(yùn)算符,流程控制 Flo
- 1. Int 和Integer 的區(qū)別,Jav
- spring @retryable不生效的一種
- Spring Security之認(rèn)證信息的處理
- Spring Security之認(rèn)證過(guò)濾器
- Spring Security概述快速入門
- Spring Security之配置體系
- 【SpringBoot】SpringCache
- Spring Security之基于方法配置權(quán)
- redisson分布式鎖中waittime的設(shè)
- maven:解決release錯(cuò)誤:Artif
- restTemplate使用總結(jié)
- Spring Security之安全異常處理
- MybatisPlus優(yōu)雅實(shí)現(xiàn)加密?
- Spring ioc容器與Bean的生命周期。
- 【探索SpringCloud】服務(wù)發(fā)現(xiàn)-Nac
- Spring Security之基于HttpR
- Redis 底層數(shù)據(jù)結(jié)構(gòu)-簡(jiǎn)單動(dòng)態(tài)字符串(SD
- arthas操作spring被代理目標(biāo)對(duì)象命令
- Spring中的單例模式應(yīng)用詳解
- 聊聊消息隊(duì)列,發(fā)送消息的4種方式
- bootspring第三方資源配置管理
- GIT同步修改后的遠(yuǎn)程分支