人工智能-深度学习-手写数字识别[通俗易懂]

人工智能-深度学习-手写数字识别[通俗易懂]1.准备数据手写数字识别的特征集是一组数值为0-9,大小为28*28矩阵的图片,标签为与之对应的数字:数据位置在:手写数字识别数据集2.将数据格式化为npz文件”””将图片和标签整理为npz文件”””importnumpyasnpimportosfromPILimportImageimportjson#读取图片#存到npz文件中的为28*28的矩阵列表train_file_path=”nums/train_x/”

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺

1.准备数据

手写数字识别的特征集是一组数值为0-9,大小为 28 * 28 矩阵的图片, 标签为与之对应的数字:

在这里插入图片描述

在这里插入图片描述

数据下载链接: 手写数字识别数据集

2.将数据格式化为 npz 文件


""" 将图片和标签整理为 npz 文件 """
import numpy as np
import os
from PIL import Image
import json

# 读取图片

# 存到 npz 文件中的为 28 *28 的矩阵列表

train_file_path = "nums/train_x/"
train_x = []
for root, dirs, files in os.walk(train_file_path):
    for f in files:
        img = np.array(Image.open(os.path.join(root, f)))
        train_x.append(img)

test_file_path = "nums/test_x/"
test_x = []
for root, dirs, files in os.walk(test_file_path):
    for f in files:
        img = np.array(Image.open(os.path.join(root, f)))
        test_x.append(img)

train_object = open('nums/train_y.json', 'r')
train_y = json.load(train_object)

test_object = open('nums/test_y.json', 'r')
test_y = json.load(test_object)

np.savez('nums.npz', train_x=np.array(train_x), test_x=np.array(test_x),
         train_y=np.array(train_y), test_y=np.array(test_y))

我们顺便记录下, 如何把npz里的数据还原成图片和json文件

""" 从 nums.npz 中读取各个图片和各自的标签 """
import numpy as np
from PIL import Image
import json


# 加载数据
image_data = np.load("data/mnist.npz")

# 分别获取训练集和数据集
x_train = image_data["x_train"]
y_train = image_data["y_train"]

x_test = image_data["x_test"]
y_test = image_data["y_test"]

# 分别把训练集和测试集恢复为png 图片
for i in range(len(x_train)):
    im = Image.fromarray(x_train[i])
    im.save("nums/train_x/%05d.png" % (i + 1))

for i in range(len(x_test)):
    im = Image.fromarray(x_test[i])
    im.save("nums/test_x/%05d.png" % (i + 1))


# 分别把训练集和测试集的标签写入到json文件中
train_num_writer = open("nums/train_y.json", 'w')
train_num_writer.write(json.dumps(y_train.tolist(), ensure_ascii=False))
train_num_writer.close()

test_num_writer = open("nums/test_y.json", 'w')
test_num_writer.write(json.dumps(y_test.tolist(), ensure_ascii=False))
test_num_writer.close()

3.训练

采用交叉熵作为损失函数, 28* 28 的784个像素值作为特征向量, 这种训练方式很暴力, 后期如果有其他更精巧的训练方式再来补充, 大家可以先把这种训练当成深度学习中的hello world

""" 手写数字识别(以交叉熵为激活函数的深度学习) """
import torch
import torch.nn as nn
import torch.nn.functional as fc
import numpy as np
import matplotlib.pyplot as plt
import matplotlib.gridspec as grid_spec

plt.switch_backend("TkAgg")

# 一. 准备训练集和测试集数据

# 从npz文件中加载数据
image_data = np.load("nums.npz")

# 获取训练集数据, 并将每张图片的 28 * 28 的矩阵转变为 1 * 784 的矩阵, 转为浮点数
# 除以 255 是为了
# 即我们把 784 个像素点的值处理后当做 784 个特征, 测试集特征同样如此
train_x = image_data["train_x"].reshape([-1, 784]).astype(np.float32) / 255
# 获取标签, 每个标签为图片对应的数字
train_y = image_data["train_y"].astype(np.float32)

# 获取测试集数据
test_x = image_data["test_x"].reshape([-1, 784]).astype(np.float32) / 255
test_y = image_data["test_y"].astype(np.float32)


# 二. 构建数学模型

# 将整个数学模型和参数进行封装
# 继承 nn.Module
class Model(nn.Module):
    def __init__(self):
        super().__init__()
        # 定义线性模型, 并设特征为 5 个, 输出为 10 个(因为数字为 0-9 共十个数字 )
        self.linear = nn.Linear(784, 128)
        # 采用ReLU作为激活函数
        self.relu = nn.ReLU()
        # 第二层神经网络
        self.linear2 = nn.Linear(128, 10)

    def forward(self, x):
        # 将x输入到第一层神经网络中
        x = self.linear(x)
        # 调用激活函数
        x = self.relu(x)
        # 传入第二层神经网络
        x = self.linear2(x)
        return x


# 三. 开始训练

# 设置学习率为 0.1
eta = 0.1

# 调用封装好的模型
model = Model()
# 开始进行训练
model.train()

# 损失函数采用 交叉熵作为损失函数
loss_fn = nn.CrossEntropyLoss()

# 构建优化器, 采用 随机梯度下降法(Stochastic Gradient Descent)
# 调用 model.parameters() 传入参数和学习率
optimizer = torch.optim.SGD(model.parameters(), eta)

# 进行迭代
for step in range(10000):
    # 每次随机产生 32 个下标索引, 获取 32 个数据进行随机梯度下降
    idx = np.random.randint(0, len(train_x), [32])
    xin = train_x[idx]
    din = train_y[idx]

    # 将 numpy 类型的数据转为 Tensor 类型,
    # 将标签的浮点类型转整数(loss函数需要标签为long类型)
    xin, din = torch.from_numpy(xin), torch.from_numpy(din).long()

    # 代入模型进行计算
    y = model(xin)

    # 计算损失函数, 然后从损失函数开始进行反向传播
    # 损失函数, 这个是计算图的最终节点
    loss = loss_fn(y, din)

    # 反向传播, 计算梯度, 这个张量的所有梯度将会自动积累到.grad属性
    loss.backward()

    # 进行迭代
    optimizer.step()

    # 将优化器已计算的梯度置0, 否则会累加
    optimizer.zero_grad()

    if step % 50 == 49:
        y_estimate = model(torch.from_numpy(test_x))
        # 找出最大的数的索引, 索引是多少, 就是估计得值是多少
        D_estimate = torch.argmax(y_estimate.detach(), 1).numpy()
        print("第 %d 次迭代, 准确率: %.2f %%" % (step,np.mean(D_estimate == test_y) * 100))


# 四. 绘制训练结果

# 建立编号为1, 大小为 14 * 8 的画图窗口 figure
fig = plt.figure(1, figsize=(14, 8))

# 指定放置子图的网格的几何形状, 为 5 行 5 列
gs = grid_spec.GridSpec(5, 5)

# 对测试集进行预测, 获得的 y 为 10000 * 10 的结果矩阵,
y = model(torch.from_numpy(test_x))

# 找出最大的数的索引, 索引是多少, 就是估计得值是多少
D = torch.argmax(y.detach(), 1).numpy()

# 将张量的每个元素缩放到(0,1)区间且和为1, 这个可以作为置信度
P = fc.softmax(y.detach(), 1)

for i in range(5):
    for j in range(5):
        # 0-10000 随机选取一个矩阵
        index = np.random.randint(5000)

        # 将该矩阵从 1 * 784 转为28 * 28
        X = test_x[index].reshape(28, 28)

        # 在第 i 行第 j 个位置的图像绘制 图像
        ax = fig.add_subplot(gs[i, j])

        # 绘制该矩阵, 以蓝色显示
        ax.matshow(X, cmap=plt.get_cmap("Blues"))

        # 获取该数据的预测值(即标签矩阵中的最大值得索引)
        idx = D[index]

        # 获取预测结果矩阵中指定的预测标签矩阵中的数字, 即置信度
        prob = P[index, idx]

        # 书写 label, 在 x 轴方向上
        ax.set_xlabel("真实: %d 预测:%d 概率:%.2f%%" % (test_y[index], idx, prob * 100))
        ax.set_xticks(())
        ax.set_yticks(())

# 解决中文显示问题
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False

plt.show()

在这里插入图片描述

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/194013.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

  • JAVA String 截取字符串的方法(含 substring 索引截取示例)

    String.substring():用于返回一个字符串的子串用法如下:string.substring(from,to)其中from指代要抽去的子串第一个字符在原字符串中的位置to指代所要抽去的子字符串最后一个字符的后一位(这个参数可以不加)下面就对String.substring()做举例:1、string.substring(from):此时相当于从from位置截取到原字…

  • java如何分析dump文件_生成dump文件命令

    java如何分析dump文件_生成dump文件命令1.IBMMemoryAnalyzer1)下载地址:https://www6.software.ibm.com/sdfdl/1v2/regs2/awadmin/heapanalyzer/Xa.2/Xb.NoLhAb4A5Mgi2gFYiaC87ef6mY6etlyzorxxZVT3hQ/Xc.heapanalyzer/ha408.zip/Xd./Xf.LPr.U1ay/Xg.5748730/X…

  • SpringMVC工作流程 — 详解

    SpringMVC工作流程 — 详解SpringMVC一,SpringMVC简介二,SpringMVC的工作原理图执行流程三,SpringMVC核心组件前端控制器DispatcherServlet处理器映射器HandlerMapping处理器适配器HandlerAdapter处理器Handler视图解析器ViewResolver一,SpringMVC简介MVC:是一种架构模式,将业务逻辑和页面展示分离,使程序分层、分工合作,既相互独立,又协同合作。MVC是模型(Model)、视图(View)、控制器(Controller)的简写,是一种

  • tcpip3次握手的通信过程是_tcp协议为什么要三次握手

    tcpip3次握手的通信过程是_tcp协议为什么要三次握手关于tcp通信过程中的三次握手、四次挥手的过程三次握手:此过程中:第一次握手,客户端先发一个SYN请求并附带一个J的值给服务端第二次握手,服务端收到请求后解堵塞,发送一个SYN请求并附带一个K值,还发送了第一次握手后对客户端的响应包并附带在之前接收到的J值的基础上加上1,即J+1第三次握手,客户端收到服务端发来的SYN请求和K值后,再发送一个K+1的响应包给服务端至此,三次握手成功…

  • swift2.0 UIImagePickerController 拍照 相册 录像

    swift2.0 UIImagePickerController 拍照 相册 录像

  • clickhouse支持sql_clickhouse库的使用

    clickhouse支持sql_clickhouse库的使用CREATETABLEzhida.SRC_ZD_HQLM_SUM(“ID”Nullable(VARCHAR2(255)),”SHOWID”VARCHAR2(255),”YEAR”VARCHAR2(255),”ZHIDA_PEOPLE_NUM”Int32,”ZHIDA_PEOPLE_MONEY”Nullable(Decimal(38,2)),”ZHIDA_ENT_NUM”Int32,”ZHIDA_ENT_MONEY”Decimal(38,2))ENG

    2022年10月17日

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号