当前位置: 首页 > news >正文

网站seo系统手机应用软件开发培训班

网站seo系统,手机应用软件开发培训班,如何提高网站打开速度,车牌照丢失能在网站做吗LeNet-5 是经典卷积神经网络之一,1998 年由 Yann LeCun 等人在论文 《Gradient-Based Learning Applied to Document Recognition》中提出。LeNet-5 网络使用了卷积层、池化层和全连接层,实现可以应用于手写体识别的卷积神经网络。TensorFlow 内置了 MNI…

LeNet-5 是经典卷积神经网络之一,1998 年由 Yann LeCun 等人在论文 《Gradient-Based Learning Applied to Document Recognition》中提出。LeNet-5 网络使用了卷积层、池化层和全连接层,实现可以应用于手写体识别的卷积神经网络。TensorFlow 内置了 MNIST 手写体数据集,可以很方便地读取数据集,并应用于后续的模型训练过程中。本文主要记录了如何使用 TensorFlow 2.0 实现 MNIST 手写体识别模型。

目录

1 数据集准备

2 模型建立

3 模型训练


1 数据集准备

        TensorFlow 内置了 MNIST 手写体数据集,安装 TensorFlow 之后,使用如下代码就可以加载 MNIST 数据集:

import tensorflow as tfmnist = tf.keras.datasets.mnist
(train_x, train_y), (test_x, test_y) = mnist.load_data()

        使用 Matplotlib 查看前 25 张图片,并打印对应的标签。

from matplotlib import pyplot as plt# 查看训练集
plt.figure(figsize=(3,3))
for i in range(25):plt.subplot(5,5,i+1)plt.imshow(train_x[i], cmap=plt.cm.binary)plt.xticks([])plt.yticks([])
plt.show()

        接着,使用 tf.one_hot() 函数,对图像的标签进行独热码编码。

# 预处理
train_y = tf.one_hot(train_y, depth=10)
test_y = tf.one_hot(test_y, depth=10)

2 模型建立

        MNIST 手写体数据集中,每张图像的大小是 28 × 28 × 1,按照 LeNet-5 模型的思路,构建卷积神经网络模型。选择 5 × 5 的卷积核,卷积层之后是 2 × 2 的平均池化,激活函数选择 sigmoid(除了最后一层)。

# the first layer can receive an 'input_shape' argument
model = tf.keras.models.Sequential([tf.keras.layers.Conv2D(filters=6,kernel_size=5,padding='valid',activation='sigmoid',input_shape=(28,28,1)),tf.keras.layers.AveragePooling2D(pool_size=(2,2),strides=2,padding='valid'),tf.keras.layers.Conv2D(filters=16,kernel_size=5,padding='valid',activation='sigmoid'),tf.keras.layers.AveragePooling2D(pool_size=(2,2),strides=2,padding='valid'),tf.keras.layers.Flatten(),tf.keras.layers.Dense(120,activation='sigmoid'),tf.keras.layers.Dense(84,activation='sigmoid'),tf.keras.layers.Dense(10,activation='softmax')
])

        使用 model.summary() 查看模型信息。

model.summary()

Model: "sequential"
_________________________________________________________________
 Layer (type)                Output Shape              Param #   
=================================================================
 conv2d (Conv2D)             (None, 24, 24, 6)         156       
                                                                 
 average_pooling2d (AverageP  (None, 12, 12, 6)        0         
 ooling2D)                                                       
                                                                 
 conv2d_1 (Conv2D)           (None, 8, 8, 16)          2416      
                                                                 
 average_pooling2d_1 (Averag  (None, 4, 4, 16)         0         
 ePooling2D)                                                     
                                                                 
 flatten (Flatten)           (None, 256)               0         
                                                                 
 dense (Dense)               (None, 120)               30840     
                                                                 
 dense_1 (Dense)             (None, 84)                10164     
                                                                 
 dense_2 (Dense)             (None, 10)                850       
                                                                 
=================================================================
Total params: 44,426
Trainable params: 44,426
Non-trainable params: 0
_________________________________________________________________

3 模型训练

        使用 compile() 函数配置模型,优化算法为 Adam 算法,学习率为 0.001,损失函数为交叉熵损失函数。

# 模型配置
model.compile(optimizer=tf.keras.optimizer.Adam(learning_rate=1e-3),loss=tf.keras.losses.CategoricalCrossentropy(),metrics=['accuracy']
)# 模型训练
model.fit(x=train_x,y=train_y,validation_split=0.0,epochs=10
)

Epoch 1/10
1875/1875 [==============================] - 72s 38ms/step - loss: 0.5806 - accuracy: 0.8206
Epoch 2/10
1875/1875 [==============================] - 70s 37ms/step - loss: 0.1254 - accuracy: 0.9620
Epoch 3/10
1875/1875 [==============================] - 75s 40ms/step - loss: 0.0870 - accuracy: 0.9735
Epoch 4/10
1875/1875 [==============================] - 82s 43ms/step - loss: 0.0699 - accuracy: 0.9785
Epoch 5/10
1875/1875 [==============================] - 69s 37ms/step - loss: 0.0604 - accuracy: 0.9809
Epoch 6/10
1875/1875 [==============================] - 68s 36ms/step - loss: 0.0530 - accuracy: 0.9833
Epoch 7/10
1875/1875 [==============================] - 72s 38ms/step - loss: 0.0477 - accuracy: 0.9854
Epoch 8/10
1875/1875 [==============================] - 70s 38ms/step - loss: 0.0436 - accuracy: 0.9863
Epoch 9/10
1875/1875 [==============================] - 70s 37ms/step - loss: 0.0399 - accuracy: 0.9873
Epoch 10/10
1875/1875 [==============================] - 68s 36ms/step - loss: 0.0357 - accuracy: 0.9883
<keras.callbacks.History at 0x20a56b65660>

http://www.yayakq.cn/news/709556/

相关文章:

  • 建站的网站专业做网站和小程序
  • 公司设计网站有哪些怎么能将网站做的不简单
  • 站长网站工具网站建设中图片尺寸
  • 戴南网站建设外贸网站设计风格
  • 做网站 单页数量网站建设费应怎样做会计分录
  • 合肥珍岛公司做网站推广怎么样net网站开发
  • 长春谁家做网站上海专业网站制作公司
  • 做游戏网站需要注意的问题定西seo排名
  • 提高网站的用户体验度网站建设有哪些种类
  • 微网站如何做酷站 网站
  • 旅行网站建设的规划书大学生免费ppt网站
  • 抖音代运营服务内容明细网站排名优化化快排优化
  • 跟网站开发有关的内容加盟代理网
  • 站多多 福州网站建设带有客户案例的网站
  • 南昌做微网站成都网络推广外包
  • seo如何建立优化网站免费做网站有哪些
  • 网站互动网站建设公司石家庄
  • 郑州代做网站制作网页所用的语言是什么
  • 手机网站怎么上传图片吉安网站建设兼职
  • 建站工具包西安网站建设是什么
  • 政务公开网站建设重点网站建设与网络推广
  • 网站自然优化是什么意思收录批量查询
  • 自定义导航网站 源码铁西网络建设
  • 宠物网站推广怎么做外贸渠道有哪些
  • 网站视频下载脚本网上做设计的网站有哪些
  • 坪山建设网站合肥市重点工程建设管理局网站
  • 怎样在国外网站购买新鲜橙花做纯露七宝做网站
  • 云南省做网站开发的公司排名免费网站软件
  • 茶叶网站建设费用明细广州抖音seo
  • 网站后台上传表格2023年封城通知