自编码器原理概述_编码器结构及工作原理

自编码器原理概述_编码器结构及工作原理个人博客:http://www.chenjianqu.com/原文链接:http://www.chenjianqu.com/show-62.html自编码器的概念自编码器(Auto-Encoder),是一种利用反向传播算法使得输出值等于输入值的神经网络,它先将输入压缩成潜在空间表征,然后通过这种表征来重构输出。自编码器由两部分组成:编码器:这部分能将输入压缩成潜在空…

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE稳定放心使用

个人博客:http://www.chenjianqu.com/

原文链接:http://www.chenjianqu.com/show-62.html

自编码器的概念

    自编码器(Auto-Encoder),是一种利用反向传播算法使得输出值等于输入值的神经网络,它先将输入压缩成潜在空间表征,然后通过这种表征来重构输出。自编码器由两部分组成:

    编码器:这部分能将输入压缩成潜在空间表征,可以用编码函数h=f(x)表示。

    解码器:这部分能重构来自潜在空间表征的输入,可以用解码函数r=g(h)表示。

1.jpg

    整个自编码器可以用函数g(f(x)) = r来描述,其中输出r与原始输入x相近。该网络的目的是重构其输入,使其隐藏层学习到该输入的良好表征。如果输入完全等于输出,即g(f(x))=x,该网络毫无意义。所以需要向自编码器强加一些约束,使它只能近似地复制。这些约束强制模型考虑输入数据的哪些部分需要被优先复制,因此它往往能学习到数据的有用特性。一般情况下有两种约束:

    1.令隐层的维度小于输入的维度,称为不完备的(under complete)。编码器将数据降维、解码器再还原数据。类似于PCA。如果隐藏节点比可视节点(输入、输出)少的话,由于被迫的降维,自编码器会自动习得训练样本的特征(变化最大,信息量最多的维度)。

    2.令隐层的维度大于输入数据的维度,称为过完备(over complete)。如果隐藏节点数目过多,自编码器可能会习得一种“恒等函数,即直接把输入复制过去作为输出。因此需要添加其它的约束,比如正则化、稀疏性等。

 

自编码器的分类

    根据对隐层特征侧重点的不同,出现了各种不同的自编码器的变种,如下图:[https://www.zhihu.com/question/41490383/answer/103006793]

2.jpg

堆栈自动编码器:自编码器的编码器和解码器可以采用深层的架构,这就是堆栈自动编码器或者深度自动编码器,本质上就是增加中间特征层数。以前栈式自编码器的训练过程是,n个AE按顺序训练,第1个AE训练完成后,将其编码器的输出作为第2个AE的输入,以此类推。最后再对整个网络进行Fine turning。但是现在的深度学习技术已经可以直接进行多层训练而无需逐层训练。

卷积自编码器:在编码器和解码器中使用卷积层抽取和还原特征。

正则自编码器:使用的损失函数可以鼓励模型学习其他特性(除了将输入复制到输出),而不必限制使用浅层的编码器和解码器以及小的编码维数来限制模型的容量。即使模型容量大到足以学习一个无意义的恒等函数,非线性且过完备的正则自编码器仍然能够从数据中学到一些关于数据分布的有用信息。常用的正则化有L1正则化和L2正则化。L2正则化的损失函数如下图:

3.jpg

    上式中的lambda为权重衰减系数。

去噪自编码器(Denoising Auto-Encoder, DAE):接收带噪声的数据,并将未带噪声的数据作为训练目标,得到一个用于去噪的自编码器。我们可以不对对损失函数添加惩罚,而是通过改变损失函数的重构误差项,得到一个可以学习一些有用的东西的自编码器。这可以通过给输入象征添加一些噪声并使自编码器学会删除它来实现。通过这种方式,编码器将提取最重要的特征并学习数据更具鲁棒性的表示。我们可以不对对损失函数添加惩罚,而是通过改变损失函数的重构误差项,得到一个可以学习一些有用的东西的自编码器。这可以通过给输入象征添加一些噪声并使自编码器学会删除它来实现。通过这种方式,编码器将提取最重要的特征并学习数据更具鲁棒性的表示。

稀疏自编码器(Sparse Auto-Encoder,SAE):正则自编码器要求的是隐层的权重不能太大,而SAE的是要求隐层的神经元添加稀疏性限制。所谓稀疏性,就是对一对输入图像,隐藏节点中被激活的节点数(输出接近1)远远小于被抑制的节点数目(输出接近0)。那么使得神经元大部分的时间都是被抑制的限制则被称作稀疏性限制。推导过程如下[https://blog.csdn.net/pi9nc/article/details/27711441]:

5.png

变分自编码器(VAE):与传统AE输出的隐藏层不同,其给隐藏层加了一个约束:迫使隐藏层产生满足高斯分布的变量,即均值趋于0,方差趋于1。与传统AE输出的隐藏层不同,其给隐藏层加了一个约束:迫使隐藏层产生满足高斯分布的变量,即均值趋于0,方差趋于1。

6.png

 

    除了以下介绍的几种AE,还有其它比如Contractive Auto-EncoderMarginalized DAE等。

 

 

代码实现卷积降噪自编码器

     本代码使用fashion_mnist数据集,基于Keras实现。

  1. 加载Keras自带的fashion_mnist数据集,并对输入数据添加噪声。

from keras.datasets import fashion_mnist
import numpy as np

(x_train,_),(x_test,_)=fashion_mnist.load_data()
x_train=x_train.reshape(-1,28,28,1).astype('float32')/255.0
x_test=x_test.reshape(-1,28,28,1).astype('float32')/255.

f=0.5
#产生噪声并叠加到训练数据上 loc是均值,scale是方差
x_train_noisy=x_train+f*np.random.normal(loc=0.0,scale=1.0,size=x_train.shape)
x_test_noisy=x_test+f*np.random.normal(loc=0.0,scale=1.0,size=x_test.shape)
#限制加上噪声后的值为0-1
x_train_noisy=np.clip(x_train_noisy,0.,1.)
x_test_noisy=np.clip(x_test_noisy,0.,1.)

查看添加噪声后的效果。

%matplotlib inline
import matplotlib.pyplot as plt

n=10
plt.figure(figsize=(20,2))
for i in range(n):
    ax=plt.subplot(1,n,i+1)
    plt.imshow(x_test_noisy[i].reshape(28,28))
    plt.gray()
    ax.get_xaxis().set_visible(False)
    ax.get_yaxis().set_visible(False)
plt.show()

7.png

 

2.定义网络。

from keras.layers import *
from keras.models import Model,load_model

#编码器
from keras.layers import *
from keras.models import Model,load_model
#编码器
inputs=Input(shape=(28,28,1))
x=Conv2D(32,(3,3),padding='same',activation='relu')(inputs)
x=MaxPooling2D((2,2),padding='same')(x)
x=Conv2D(32,(3,3),padding='same',activation='relu')(x)
vector=MaxPooling2D((2,2),padding='same')(x)
#解码器
x=Conv2D(32,(3,3),padding='same',activation='relu')(vector)
x=UpSampling2D((2,2))(x)
x=Conv2D(32,(3,3),padding='same',activation='relu')(x)
x=UpSampling2D((2,2))(x)
outputs=Conv2D(1,(3,3),padding='same',activation='sigmoid')(x)

model=Model(inputs,outputs)
model.summary()

 

3.编译并训练网络,使用adam优化器,使用mse作为误差函数。

from keras import losses
model.compile(optimizer='adam',loss=losses.mean_squared_error)
model.fit(x_train_noisy,x_train,
         epochs=100,
          batch_size=128,
          shuffle=True
         )
model.save('AutoEncoder_Mnist.h5')

4.测试效果

#测试
%matplotlib inline
from keras.models import Model,load_model
import matplotlib.pyplot as plt
aemodel=load_model('AutoEncoder_Mnist.h5')
output_imgs=aemodel.predict(x_test_noisy)
n=10
count=0
plt.figure(figsize=(20,16))
for j in range(4):
    for i in range(n):
        ax=plt.subplot(8,n,j*2*n+i+1)#获取子图
        plt.imshow(x_test_noisy[count].reshape(28,28))
        plt.gray()
        ax.get_xaxis().set_visible(False)
        ax.get_yaxis().set_visible(False)
        ax=plt.subplot(8,n,j*2*n+i+1+n)
        plt.imshow(output_imgs[count].reshape(28,28))
        plt.gray()
        ax.get_xaxis().set_visible(False)
        ax.get_yaxis().set_visible(False)
        
        count+=1
    
    
plt.show()

 

index.png

 

 

 

参考文献

[1]量子位. 自编码器是什么?有什么用?这里有一份入门指南(附代码). https://zhuanlan.zhihu.com/p/34238979

[2] ShuYini.一文带你了解自编码器(AutoEncoder). https://zhuanlan.zhihu.com/p/80377698

[3]时光_机.自动编码器及其变种. https://blog.csdn.net/qq_19784349/article/details/79624017

[4]AiTechYun. 一文搞懂自编码器及其用途(含代码示例). http://www.sohu.com/a/224516673_99992181

[5] zlinxi.深度学习之卷积自编码器. https://blog.csdn.net/qq_33273962/article/details/83547342

 

 

 

 

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/187164.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)
blank

相关推荐

  • linux lseek

    linux lseek

  • 365xav.cf/forum.php,jupyterlab-latex

    365xav.cf/forum.php,jupyterlab-latex#THISISANAUTOGENERATEDFILE.DONOTEDITTHISFILEDIRECTLY.#yarnlockfilev1″@babel/code-frame@^7.0.0″:version”7.8.3″resolved”https://registry.yarnpkg.com/@babel/code-frame/-/code-frame-7.8.3….

  • C++ Template 基础篇(一):函数模板[通俗易懂]

    C++Template基础篇(一):函数模板Template所代表的泛型编程是C++语言中的重要的组成部分,我将通过几篇blog对这半年以来的学习做一个系统的总结,本文是基础篇的第一部分。CTemplate基础篇一函数模板为什么要有泛型编程函数模板定义普通函数模板成员函数模板为什么成员函数模板不能是虚函数virtual实参推断如何使用当返回值类型也是参数时实参推断时的自动类

  • clion激活码-激活码分享

    (clion激活码)JetBrains旗下有多款编译器工具(如:IntelliJ、WebStorm、PyCharm等)在各编程领域几乎都占据了垄断地位。建立在开源IntelliJ平台之上,过去15年以来,JetBrains一直在不断发展和完善这个平台。这个平台可以针对您的开发工作流进行微调并且能够提供…

  • Feign原理_feign基于什么协议

    Feign原理_feign基于什么协议一、feign测试代码1.服务接口上标注@FeignClient@FeignClient(“order”)publicinterfaceOrderServiceFeign{@GetMapping(“/getOrder”)StringgetOrder();}2.调用方可以直接注入然后直接调用访问@RestController@RequestMapping(“/feign”)publicclassFeignTestController{@Autow

  • java生成exe可执行文件的条件_不能运行exe文件

    java生成exe可执行文件的条件_不能运行exe文件一、软件准备1.下载将jar包转化为EXE的工具EXE4J,下载地址为:https://www.ej-technologies.com/download/exe4j/files2.下载完成之后,按照如下步骤安装EXE4J。二、生产jar文件在将写好的Java程序转换为EXE程序前,需要先将Java程序导出为jar包,然后才能通过EXE4J生成想要的EXE程序。在这里,笔者使用的工具为eclip……

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号