首页
AI
初识卷积神经网络——手写数字识别

初识卷积神经网络——手写数字识别

热心网友
转载
2025-07-22

本文先介绍卷积神经网络相关知识,包括其概念、原理、计算方式等,如卷积操作、池化层、激活函数等。接着用飞桨高级API,以LeNet-5网络为例,完成手写数字识别,涵盖数据准备、模型选择开发、训练优化、评估、预测及部署上线等流程,最终模型评估准确率达0.9857。

初识卷积神经网络——手写数字识别 - 游乐网

 

从手写识别了解卷积神经网络

简介:

本项目通过简介卷积神经网络(什么是卷积神经网络,怎么样理解,怎么样计算)然后使用飞桨高级API完成卷积神经网络的手写数字识别来带大家一起学习神经网络

1、图像分类原理

初识卷积神经网络——手写数字识别 - 游乐网

计算机的视角: 初识卷积神经网络——手写数字识别 - 游乐网

一张彩色的图片涉及到了一个通道的问题,彩色的是三通道,代表着这个图里面的c(相对应第三维度的值)
这里面的w,h相对应图片的宽度和高度,就是传说中的像素比如(2828)(800800)

白话:

这个东西这么理解呢,说实话很抽象,
大家看一个平面像不像是长方形,w和h对应的是长方形的长和宽,c相对应长方体的高,
假设该图的像素是28*28的那么我们就可以理解为是长,宽,高分别是28 * 28 * 3的立方体(只是举例)
那么用paddleTensor表示就是(3, 28, 28)(依次是高维度到底维度)(相对应高,宽,长)

计算机的工作: 计算机对上面的数据进行分析,查看里面的一些特征,然后通过特征分析各种东西的比例。
可以理解为你在玩猜猜猜的游戏,通过一些特征猜到一个结果。

深度学习万能公式

初识卷积神经网络——手写数字识别 - 游乐网

手写数字识别——卷积神经网络

① 问题定义

图像分类,使用LeNet-5网络完成手写数字识别图片的分类。

In [1]
import paddleimport numpy as npimport matplotlib.pyplot as pltpaddle.__version__
登录后复制
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/__init__.py:107: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working  from collections import MutableMapping/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/rcsetup.py:20: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working  from collections import Iterable, Mapping/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/colors.py:53: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working  from collections import Sized
登录后复制
'2.0.1'
登录后复制

② 数据准备

继续应用框架中封装好的手写数字识别数据集。

书写数字识别数据集正式
是通过0-9的数据对手写数字的一个识别
在paddle中已经被封装到paddle.vision.datasets.MNIST查看api

2.1 数据集加载和预处理


这里的处理方式和昨天的是一样,先定义transform(一个归一化处理,把数据归一到(-1,1)的区间)

In [2]
# 数据预处理import paddle.vision.transforms as T# 数据预处理,TODO:找一下提出的原论文看一下transform = T.Normalize(mean=[127.5], std=[127.5])# 训练数据集train_dataset = paddle.vision.datasets.MNIST(mode='train', transform=transform)# 验证数据集eval_dataset = paddle.vision.datasets.MNIST(mode='test', transform=transform)print('训练样本量:{},测试样本量:{}'.format(len(train_dataset), len(eval_dataset)))
登录后复制
训练样本量:60000,测试样本量:10000
登录后复制

2.2 数据查看


这里和第一天的数据也是一样的,就是解释了train_dataset和昨天理解的其实是一样的,一个[0]取的是整个生成器的第一个值,第二个[0]取的是image

In [6]
print('图片:')print(type(train_dataset[0][0]))print(train_dataset[0][0].shape)print('标签:')print(type(train_dataset[0][1]))print(train_dataset[0][1])# 可视化展示plt.figure()plt.imshow(train_dataset[0][0].reshape([28,28]), cmap=plt.cm.binary)plt.show()
登录后复制
图片:(1, 28, 28)标签:[5]
登录后复制
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/numpy/lib/type_check.py:546: DeprecationWarning: np.asscalar(a) is deprecated since NumPy v1.16, use a.item() instead  'a.item() instead', DeprecationWarning, stacklevel=1)
登录后复制登录后复制
登录后复制登录后复制登录后复制登录后复制登录后复制

③ 模型选择和开发

我们选用LeNet-5网络结构。

LeNet-5模型源于论文“LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.”,

论文地址:https://ieeexplore.ieee.org/document/726791

3.1 网络结构定义

3.1.1 模型介绍

初识卷积神经网络——手写数字识别 - 游乐网

每个阶段用到的Layer

初识卷积神经网络——手写数字识别 - 游乐网

3.1.2卷积神经网络

从原始信号—>发现边缘和方向—>不断抽象—>不断抽象

发展史 初识卷积神经网络——手写数字识别 - 游乐网

3.1.4网络详解

卷积操作

单通道卷积

y = w * x + b (x是输入,y是输出,w是卷积核,b是贝叶斯)
初识卷积神经网络——手写数字识别 - 游乐网
在这里面涉及连个概念,计算和步长

计算: 大家找找规律就ok

初识卷积神经网络——手写数字识别 - 游乐网

步长: 以上图为例:步长就是1,他的间隔就是一个像素(单位),以此类推

经过计算以后就得到了一个特征提取以后得到的特征核
得到的结果大小 初识卷积神经网络——手写数字识别 - 游乐网
以上面例子为例:

w=3(xw)+0(2 * 0)-2(f-w)/1+1=2
h=3(xh)+0(2 * 0)-2(f-h)/1+1=2

所以得到的结果是2 * 2的结果

多通道卷积

初识卷积神经网络——手写数字识别 - 游乐网
这里多通道对应的卷积核也是相应维度的,分别计算出对应维度的结果如何把对应位置的加起来就是最后输出的降维结果
1101 = 805 + 271 + 25
这里三通道的数据经过一个卷积核得到了一个单通道的表示

多通道输出

初识卷积神经网络——手写数字识别 - 游乐网
通过多个卷积核得到多个特征然后再堆叠得到一个多通道的输出

Batch

卷积核信息不变,卷积操作会多一定的倍数(和样本数有关)。

这个和上面的一样多个输入和多个卷积核通过卷积生成图

填充操作( Padding的由来):

角落边缘的像素,只被一个过滤器输出所使用,因为它位于这个3×3的区域的一角。但如果是在中间的像素点,就会有许多3×3的区域与之重叠。
所以那些在角落或者边缘区域的像素点在输出中采用较少,意味着你丢掉了图像边缘位置的许多信息。
那么出现的一个解决办法就是填充操作,在原图像外围以0进行填充,在不影响特征提取的同时,增加了对边缘信息的特征提取。
另外一个好处是,我们在做卷积操作时,每经过一次卷积我们的输入图像大小就会变小,最后经过多次卷积可能我们的图像会变得特别小,我们不希望图像变小的话就可以通过填充操作。

初识卷积神经网络——手写数字识别 - 游乐网

白话:就是边缘的一些内容有可能就只被收集了一次特征,但是中心的确有多次,那么边上的信息数据就会丢失或者木有那么的清晰,这个是如果填充空白的数据那么就可以比较好的解决问题, 同时可以解决图像变小带来的某些时候不必要的麻烦

3.1.5池化层

池化是使用某一位置的相邻输出的总体统计特征代替网络在该位置的输出,其好处是当输入数据做出少量平移时,经过池化函数后的大多数输出还能保持不变。比如:当识别一张图像是否是人脸时,我们需要知道人脸左边有一只眼睛,右边也有一只眼睛,而不需要知道眼睛的精确位置,这时候通过池化某一片区域的像素点来得到总体统计特征会显得很有用。由于池化之后特征图会变得更小,如果后面连接的是全连接层,能有效的减小神经元的个数,节省存储空间并提高计算效率。

池化的作用 池化层是特征选择和信息过滤的过程,过程中会损失一部分信息,但是会同时会减少参数和计算量,在模型效果和计算性能之间寻找平衡,随着运算速度的不断提高,慢慢可能会有一些设计上的变化,现在有些网络已经开始少用或者不用池化层。

初识卷积神经网络——手写数字识别 - 游乐网

池化的步长和卷积核的大小有关,默认长度为2

平均池化(Avg Pooling)

对邻域内特征点求平均

优缺点:能很好的保留背景,但容易使得图片变模糊正向传播:邻域内取平均反向传播:特征值根据领域大小被平均,然后传给每个索引位置
最大池化(Max Pooling)

对邻域内特征点取最大

优缺点:能很好的保留一些关键的纹理特征,现在更多的再使用Max Pooling而很少用Avg Pooling正向传播:取邻域内最大,并记住最大值的索引位置,以方便反向传播反向传播:将特征值填充到正向传播中,值最大的索引位置,其他位置补0
计算结果的大小公示
初识卷积神经网络——手写数字识别 - 游乐网初识卷积神经网络——手写数字识别 - 游乐网

3.1.6激活函数

Sigmoid
初识卷积神经网络——手写数字识别 - 游乐网
Tanh
初识卷积神经网络——手写数字识别 - 游乐网

Sigmoid和Tanh激活函数有共同的缺点:即在z很大或很小时,梯度几乎为零,因此使用梯度下降优化算法更新网络很慢。

ReLU
初识卷积神经网络——手写数字识别 - 游乐网

Relu目前是选用比较多的激活函数,但是也存在一些缺点,在z小于0时,斜率即导数为0。
为了解决这个问题,后来也提出来了Leaky Relu激活函数,不过目前使用的不是特别多。

3.1.2 网络结构代码实现1

理解原论文进行的复现实现,因为模型论文出现在1998年,很多技术还不是最新。

In [39]
import paddle.nn as nnnetwork = nn.Sequential(    nn.Conv2D(in_channels=1, out_channels=6, kernel_size=5, stride=1, padding=0),  # C1 卷积层    nn.Tanh(),    nn.AvgPool2D(kernel_size=2, stride=2),  # S2 平局池化层    nn.Sigmoid(),   # Sigmoid激活函数    nn.Conv2D(in_channels=6, out_channels=16, kernel_size=5, stride=1, padding=0),  # C3 卷积层    nn.Tanh(),    nn.AvgPool2D(kernel_size=2, stride=2),  # S4 平均池化层    nn.Sigmoid(),  # Sigmoid激活函数    nn.Conv2D(in_channels=16, out_channels=120, kernel_size=5, stride=1, padding=0), # C5 卷积层    nn.Tanh(),    nn.Flatten(),    nn.Linear(in_features=120, out_features=84), # F6 全连接层    nn.Tanh(),    nn.Linear(in_features=84, out_features=10) # OUTPUT 全连接层)
登录后复制

模型可视化

In [41]
paddle.summary(network, (1, 1, 32, 32))
登录后复制
--------------------------------------------------------------------------- Layer (type)       Input Shape          Output Shape         Param #    ===========================================================================   Conv2D-44      [[1, 1, 32, 32]]      [1, 6, 28, 28]          156          Tanh-13       [[1, 6, 28, 28]]      [1, 6, 28, 28]           0        AvgPool2D-27     [[1, 6, 28, 28]]      [1, 6, 14, 14]           0         Sigmoid-23      [[1, 6, 14, 14]]      [1, 6, 14, 14]           0          Conv2D-45      [[1, 6, 14, 14]]     [1, 16, 10, 10]         2,416         Tanh-14      [[1, 16, 10, 10]]     [1, 16, 10, 10]           0        AvgPool2D-28    [[1, 16, 10, 10]]      [1, 16, 5, 5]            0         Sigmoid-24      [[1, 16, 5, 5]]       [1, 16, 5, 5]            0          Conv2D-46      [[1, 16, 5, 5]]       [1, 120, 1, 1]        48,120         Tanh-15       [[1, 120, 1, 1]]      [1, 120, 1, 1]           0        Flatten-10968    [[1, 120, 1, 1]]         [1, 120]              0          Linear-38         [[1, 120]]            [1, 84]            10,164         Tanh-16          [[1, 84]]             [1, 84]               0          Linear-39         [[1, 84]]             [1, 10]              850      ===========================================================================Total params: 61,706Trainable params: 61,706Non-trainable params: 0---------------------------------------------------------------------------Input size (MB): 0.00Forward/backward pass size (MB): 0.12Params size (MB): 0.24Estimated Total Size (MB): 0.36---------------------------------------------------------------------------
登录后复制
{'total_params': 61706, 'trainable_params': 61706}
登录后复制

3.1.3 网络结构代码实现2

应用了截止到现在为止新的技术点实现后的模型,用Sequential写法。

In [45]
import paddle.nn as nnnetwork_2 = nn.Sequential(    nn.Conv2D(in_channels=1, out_channels=6, kernel_size=3, stride=1, padding=1),    nn.ReLU(),    nn.MaxPool2D(kernel_size=2, stride=2),    nn.Conv2D(in_channels=6, out_channels=16, kernel_size=5, stride=1, padding=0),    nn.ReLU(),    nn.MaxPool2D(kernel_size=2, stride=2),    nn.Flatten(),    nn.Linear(in_features=400, out_features=120),  # 400 = 5x5x16,输入形状为32x32, 输入形状为28x28时调整为256    nn.Linear(in_features=120, out_features=84),    nn.Linear(in_features=84, out_features=10))
登录后复制

模型可视化

In [46]
paddle.summary(network_2, (1, 1, 28, 28))
登录后复制
--------------------------------------------------------------------------- Layer (type)       Input Shape          Output Shape         Param #    ===========================================================================   Conv2D-49      [[1, 1, 28, 28]]      [1, 6, 28, 28]          60           ReLU-13       [[1, 6, 28, 28]]      [1, 6, 28, 28]           0        MaxPool2D-13     [[1, 6, 28, 28]]      [1, 6, 14, 14]           0          Conv2D-50      [[1, 6, 14, 14]]     [1, 16, 10, 10]         2,416         ReLU-14      [[1, 16, 10, 10]]     [1, 16, 10, 10]           0        MaxPool2D-14    [[1, 16, 10, 10]]      [1, 16, 5, 5]            0        Flatten-10972    [[1, 16, 5, 5]]          [1, 400]              0          Linear-43         [[1, 400]]            [1, 120]           48,120        Linear-44         [[1, 120]]            [1, 84]            10,164        Linear-45         [[1, 84]]             [1, 10]              850      ===========================================================================Total params: 61,610Trainable params: 61,610Non-trainable params: 0---------------------------------------------------------------------------Input size (MB): 0.00Forward/backward pass size (MB): 0.11Params size (MB): 0.24Estimated Total Size (MB): 0.35---------------------------------------------------------------------------
登录后复制
{'total_params': 61610, 'trainable_params': 61610}
登录后复制登录后复制登录后复制

3.1.4 网络结构代码实现3

应用了截止到现在为止新的技术点实现后的模型,模型结构和【网络结构代码实现2】一致,用Sub Class写法。

In [47]
class LeNet(nn.Layer):    """    继承paddle.nn.Layer定义网络结构    """    def __init__(self, num_classes=10):        """        初始化函数        """        super(LeNet, self).__init__()        self.features = nn.Sequential(            nn.Conv2D(in_channels=1, out_channels=6, kernel_size=3, stride=1, padding=1),  # 第一层卷积            nn.ReLU(), # 激活函数            nn.MaxPool2D(kernel_size=2, stride=2),  # 最大池化,下采样            nn.Conv2D(in_channels=6, out_channels=16, kernel_size=5, stride=1, padding=0), # 第二层卷积            nn.ReLU(), # 激活函数            nn.MaxPool2D(kernel_size=2, stride=2) # 最大池化,下采样        )        self.fc = nn.Sequential(            nn.Linear(400, 120),  # 全连接            nn.Linear(120, 84),   # 全连接            nn.Linear(84, num_classes) # 输出层        )    def forward(self, inputs):        """        前向计算        """        y = self.features(inputs)        y = paddle.flatten(y, 1)        out = self.fc(y)        return outnetwork_3 = LeNet()
登录后复制

模型可视化

In [48]
paddle.summary(network_3, (1, 1, 28, 28))
登录后复制
--------------------------------------------------------------------------- Layer (type)       Input Shape          Output Shape         Param #    ===========================================================================   Conv2D-51      [[1, 1, 28, 28]]      [1, 6, 28, 28]          60           ReLU-15       [[1, 6, 28, 28]]      [1, 6, 28, 28]           0        MaxPool2D-15     [[1, 6, 28, 28]]      [1, 6, 14, 14]           0          Conv2D-52      [[1, 6, 14, 14]]     [1, 16, 10, 10]         2,416         ReLU-16      [[1, 16, 10, 10]]     [1, 16, 10, 10]           0        MaxPool2D-16    [[1, 16, 10, 10]]      [1, 16, 5, 5]            0          Linear-46         [[1, 400]]            [1, 120]           48,120        Linear-47         [[1, 120]]            [1, 84]            10,164        Linear-48         [[1, 84]]             [1, 10]              850      ===========================================================================Total params: 61,610Trainable params: 61,610Non-trainable params: 0---------------------------------------------------------------------------Input size (MB): 0.00Forward/backward pass size (MB): 0.11Params size (MB): 0.24Estimated Total Size (MB): 0.35---------------------------------------------------------------------------
登录后复制
{'total_params': 61610, 'trainable_params': 61610}
登录后复制登录后复制登录后复制

3.1.4 网络结构代码实现4

直接应用高层API中封装好的LeNet网络接口。


paddle.vision.models.LeNet():LeNet模型初识卷积神经网络——手写数字识别 - 游乐网

In [50]
network_4 = paddle.vision.models.LeNet(num_classes=10)
登录后复制

3.1.4 模型可视化

通过summary接口来查看搭建的网络结构,查看输入和输出形状,以及需要训练的参数信息。

In [52]
paddle.summary(network_4, (1, 1, 28, 28))
登录后复制
--------------------------------------------------------------------------- Layer (type)       Input Shape          Output Shape         Param #    ===========================================================================   Conv2D-53      [[1, 1, 28, 28]]      [1, 6, 28, 28]          60           ReLU-17       [[1, 6, 28, 28]]      [1, 6, 28, 28]           0        MaxPool2D-17     [[1, 6, 28, 28]]      [1, 6, 14, 14]           0          Conv2D-54      [[1, 6, 14, 14]]     [1, 16, 10, 10]         2,416         ReLU-18      [[1, 16, 10, 10]]     [1, 16, 10, 10]           0        MaxPool2D-18    [[1, 16, 10, 10]]      [1, 16, 5, 5]            0          Linear-49         [[1, 400]]            [1, 120]           48,120        Linear-50         [[1, 120]]            [1, 84]            10,164        Linear-51         [[1, 84]]             [1, 10]              850      ===========================================================================Total params: 61,610Trainable params: 61,610Non-trainable params: 0---------------------------------------------------------------------------Input size (MB): 0.00Forward/backward pass size (MB): 0.11Params size (MB): 0.24Estimated Total Size (MB): 0.35---------------------------------------------------------------------------
登录后复制
{'total_params': 61610, 'trainable_params': 61610}
登录后复制登录后复制登录后复制

④ 模型训练和优化

模型配置

优化器:随机梯度下滑(SGD)损失函数:交叉熵(cross entropy)评估指标:AccuracyIn [53]
# 模型封装model = paddle.Model(network_4)# 模型配置model.prepare(paddle.optimizer.Adam(learning_rate=0.001, parameters=model.parameters()), # 优化器              paddle.nn.CrossEntropyLoss(), # 损失函数              paddle.metric.Accuracy()) # 评估指标# 启动全流程训练model.fit(train_dataset,  # 训练数据集          eval_dataset,   # 评估数据集          epochs=5,       # 训练轮次          batch_size=64,  # 单次计算数据样本量          verbose=1)      # 日志展示形式
登录后复制
The loss value printed in the log is the current step, and the metric is the average value of previous step.Epoch 1/5step 938/938 [==============================] - loss: 0.0154 - acc: 0.9404 - 9ms/step        Eval begin...The loss value printed in the log is the current batch, and the metric is the average value of previous step.step 157/157 [==============================] - loss: 0.0102 - acc: 0.9752 - 7ms/step         Eval samples: 10000Epoch 2/5step 938/938 [==============================] - loss: 0.0222 - acc: 0.9764 - 9ms/step        Eval begin...The loss value printed in the log is the current batch, and the metric is the average value of previous step.step 157/157 [==============================] - loss: 0.0075 - acc: 0.9835 - 7ms/step           Eval samples: 10000Epoch 3/5step 938/938 [==============================] - loss: 0.0131 - acc: 0.9814 - 9ms/step        Eval begin...The loss value printed in the log is the current batch, and the metric is the average value of previous step.step 157/157 [==============================] - loss: 0.0057 - acc: 0.9815 - 7ms/step           Eval samples: 10000Epoch 4/5step 938/938 [==============================] - loss: 0.0057 - acc: 0.9839 - 9ms/step         Eval begin...The loss value printed in the log is the current batch, and the metric is the average value of previous step.step 157/157 [==============================] - loss: 0.0032 - acc: 0.9837 - 7ms/step           Eval samples: 10000Epoch 5/5step 938/938 [==============================] - loss: 0.0035 - acc: 0.9855 - 9ms/step        Eval begin...The loss value printed in the log is the current batch, and the metric is the average value of previous step.step 157/157 [==============================] - loss: 0.0075 - acc: 0.9863 - 7ms/step         Eval samples: 10000
登录后复制

⑤ 模型评估

5.1 模型评估

In [26]
result = model.evaluate(eval_dataset, verbose=1)print(result)
登录后复制
Eval begin...The loss value printed in the log is the current batch, and the metric is the average value of previous step.step 10000/10000 [==============================] - loss: 1.8477e-05 - acc: 0.9857 - 2ms/step         Eval samples: 10000{'loss': [1.8477269e-05], 'acc': 0.9857}
登录后复制

5.2 模型预测

5.2.1 批量预测

使用model.predict接口来完成对大量数据集的批量预测。

In [27]
# 进行预测操作result = model.predict(eval_dataset)
登录后复制
Predict begin...step 10000/10000 [==============================] - 2ms/step        Predict samples: 10000
登录后复制In [28]
# 定义画图方法def show_img(img, predict):    plt.figure()    plt.title('predict: {}'.format(predict))    plt.imshow(img.reshape([28, 28]), cmap=plt.cm.binary)    plt.show()# 抽样展示indexs = [2, 15, 38, 211]for idx in indexs:    show_img(eval_dataset[idx][0], np.argmax(result[0][idx]))
登录后复制
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/numpy/lib/type_check.py:546: DeprecationWarning: np.asscalar(a) is deprecated since NumPy v1.16, use a.item() instead  'a.item() instead', DeprecationWarning, stacklevel=1)
登录后复制登录后复制
登录后复制登录后复制登录后复制登录后复制登录后复制
登录后复制登录后复制登录后复制登录后复制登录后复制
登录后复制登录后复制登录后复制登录后复制登录后复制
登录后复制登录后复制登录后复制登录后复制登录后复制

⑥ 部署上线

6.1 保存模型

In [29]
model.save('finetuning/mnist')
登录后复制

6.2 继续调优训练

In [33]
from paddle.static import InputSpecnetwork = paddle.vision.models.LeNet(num_classes=10)# 模型封装,为了后面保存预测模型,这里传入了inputs参数model_2 = paddle.Model(network, inputs=[InputSpec(shape=[-1, 1, 28, 28], dtype='float32', name='image')])# 加载之前保存的阶段训练模型model_2.load('finetuning/mnist')# 模型配置model_2.prepare(paddle.optimizer.Adam(learning_rate=0.0001, parameters=network.parameters()),  # 优化器                paddle.nn.CrossEntropyLoss(), # 损失函数                paddle.metric.Accuracy()) # 评估函数# 模型全流程训练model_2.fit(train_dataset,  # 训练数据集            eval_dataset,   # 评估数据集            epochs=2,       # 训练轮次            batch_size=64,  # 单次计算数据样本量            verbose=1)      # 日志展示形式
登录后复制
The loss value printed in the log is the current step, and the metric is the average value of previous step.Epoch 1/2step 938/938 [==============================] - loss: 0.0075 - acc: 0.9935 - 9ms/step         Eval begin...The loss value printed in the log is the current batch, and the metric is the average value of previous step.step 157/157 [==============================] - loss: 8.7727e-05 - acc: 0.9888 - 7ms/step       Eval samples: 10000Epoch 2/2step 938/938 [==============================] - loss: 0.0025 - acc: 0.9945 - 9ms/step         Eval begin...The loss value printed in the log is the current batch, and the metric is the average value of previous step.step 157/157 [==============================] - loss: 9.3565e-05 - acc: 0.9892 - 7ms/step       Eval samples: 10000
登录后复制

6.3 保存预测模型

In [34]
# 保存用于后续推理部署的模型model_2.save('infer/mnist', training=False)
登录后复制
来源:https://www.php.cn/faq/1421503.html

免责声明

游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

同类文章

统筹规划多措并举,推动我国科学数据体系迈向自主可控新征程

在数据与智能深度融合推动科研范式变革的背景下,科学数据作为科技创新的核心要素,正成为支撑国家科技竞争力与产业升级的战略资源。其价值不仅体现在加速科学发现、推动技术突破上,更关乎国家数据主权安全与全球

2025-10-28.

商汤科技:生成式AI能否驱动业绩持续回暖与破局?

在AI产业链的版图中,不同环节的企业正经历着截然不同的命运。随着AIGC技术加速向工业制造、商业服务、医疗健康等领域渗透,以英伟达为代表的AI算力芯片企业凭借底层硬件的技术垄断与市场优势,营收和利润

2025-10-28.

MiniMax M2:深耕多模态技术,全面优化赋能智能应用普及

近期,基础模型市场再次热闹起来,各厂商纷纷推出新动作。不过,仔细分析可以发现,这些厂商的策略大致分为两类。一类厂商选择在模型的某个难点上集中突破,力求成为该领域的顶尖水平,以此在开发者群体中树立鲜明

2025-10-28.

AI浪潮下,产业互联网的融合机遇与挑战剖析

当人工智能技术成为各行业竞相布局的焦点,产业互联网的浪潮正以不可阻挡之势席卷而来。从大模型技术的广泛应用,到人形机器人引发市场热议,再到自动驾驶技术的持续突破,这些现象无不昭示着人工智能时代的全面来

2025-10-28.

脑机接口15个关键进展:技术突破与市场扩张迎发展新机遇

华福证券最新发布的研究报告指出,脑机接口技术(BCI BMI)正成为“十五五”期间科技创新与产业升级的核心赛道之一。这项技术通过直接连接大脑与外部设备,构建了无需外周神经和肌肉参与的新型通信与控制通

2025-10-28.

热门教程

更多
  • 游戏攻略
  • 安卓教程
  • 苹果教程
  • 电脑教程

最新下载

更多
世界盒子正
世界盒子正 休闲益智 2025-10-28更新
查看
口袋山海经九游
口袋山海经九游 棋牌策略 2025-10-28更新
查看
指尖十一人游戏
指尖十一人游戏 体育竞技 2025-10-28更新
查看
铁锈战争升级模组5.0
铁锈战争升级模组5.0 棋牌策略 2025-10-28更新
查看
绝地鸡舍手游
绝地鸡舍手游 棋牌策略 2025-10-28更新
查看
汉字大冒险
汉字大冒险 休闲益智 2025-10-28更新
查看
精灵向前冲游戏
精灵向前冲游戏 休闲益智 2025-10-28更新
查看
体育生的集体生活游戏
体育生的集体生活游戏 休闲益智 2025-10-28更新
查看
梦幻水族箱国际服
梦幻水族箱国际服 休闲益智 2025-10-28更新
查看
黑洞大作战多地图
黑洞大作战多地图 休闲益智 2025-10-28更新
查看