博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
深度学习入门:用MNIST完成Autoencoder
阅读量:6843 次
发布时间:2019-06-26

本文共 878 字,大约阅读时间需要 2 分钟。

Autoencoder基本是Deep Learning最经典的东西,也是入门的必经之路。Autoencoder是一种数据的压缩算法,其中数据的压缩和解压缩函数必须是数据相关的,有损的,从样本中自动学习的。在大部分提到自动编码器的场合,压缩和解压缩的函数是通过神经网络实现的。

在这里,我来给大家完成一个MNIST数据集的Autoencoder

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

首先下载MNIST数据,在这里友情提醒一下,MNIST的数据集因为某些原因,下载速度非常的慢,在这里推荐去THE MNIST DATABASE下载。下载完成后建一个MNIST_data的文件夹,放进去。

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

在这里提一下,为什么我们要将图片设置为28*28?

28*28的特征图大小可以防止输入的连接掉到边界之外,不导致梯度损失。

大家觉得自编码器可以在没有标签的时候学习到数据的有用表达。但是,自编码器并不是一个真正的Unsupervised Learning的算法,而是一个Self-Supervised Learning算法。并且,Self-Supervised Learning是Supervised Learning的一个部分,其标签产生自输入数据。

要获得一个自监督的模型,你需要想出一个靠谱的目标函数和一个损失函数。我们首先将Autoencoder用这些图片来训练,得到784长度的向量。同时这些数据集的图像已经完成了归一化,也就是说要么是一,要么是零。首先我们先建立一个单层ReLu隐藏层来完成一个很简单的Autoencoder,这一层是用来做压缩的。然后encoder就是输入层和隐藏层,decoder是隐藏层和输出层。这句话比较难理解,就是输入层进行输入,经中间的隐藏层来进行一些变换,隐藏层为encoder和decoder共有。而后至输出层得到结果,然而由于我们将图像正则化了,所以我们需要在输出层上加一个Sigmoid函数来获得结果。

对了,在这里解释一下为啥是784:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

原文发布时间为:2017-08-03本文作者:那只猫本文来自云栖社区合作伙伴“ ”,了解相关信息可以关注“ ”微信公众号

转载地址:http://jzcul.baihongyu.com/

你可能感兴趣的文章
IOS UITableView详解二性能优化 & LOL游戏人物展示
查看>>
nexus 7 恢复出厂设置后一系列问题
查看>>
关于jFinal Db.query与Db.find 的理解
查看>>
源码解读Saltstack运行机制之Job Runtime
查看>>
2012-01-07 21:58
查看>>
Hyper-V: Making Template Virtual Machines
查看>>
如何避免忙成狗
查看>>
JavaWeb学习之Servlet(四)----ServletConfig获取配置信息、Servle
查看>>
使用Redisson实现分布式锁
查看>>
LVS DR模式详细搭建过程
查看>>
致敬 54岁的刘德华
查看>>
使用pushd和popd进行快速定位
查看>>
Vmware Workstation 10.0.1 build-1379776 patch for Linux kernel 3.13
查看>>
error while loading shared libraries: libiconv.so.2
查看>>
shell自动分区
查看>>
记录几个重要词汇的解析。
查看>>
在web项目中使用KSOAP2调用WebService
查看>>
zabbix安装详细文档
查看>>
2016年linux运维人员必会开源运维工具体系
查看>>
linux学习作业-第一周
查看>>