大家好,又见面了,我是你们的朋友全栈君。
ž在自然界中运动是绝对的,静止是相对的。这句话也说明了深度学习过去、现在、未来。由于我发现山东大学有个组和澳门大学陈俊龙团队的宽度学习、极限学习等。
目前由于神经网络是黑盒研究、所以很多人利用反卷积和卷积可视化来解释这种微分和积分的编程,由于冗余和稀疏特性使用微积分或者差分求导数和偏导是必然。
宽度学习文章和代码研究地址:http://www.broadlearning.ai
在深度学习上目前比较流行的:DBN深度信任网络、DBM(深度玻耳兹曼机)、CNN(卷积神经网络)、RNN(循环神经网络)、自编器。
SLFN(单层前馈神经网络)应用在回归和分类,由 Yoh-Han Pao 教授在 1990 年代提出的随机向量函数链接神经网络(random vector functional link neural network,RVFLNN)提供了不同的学习方法。
特征提取和降维
实现效率突出的特征提取常用方法包括,变量排序(variable ranking),特征子集选择(feature subset selection),惩罚最小二乘法(penalized least squares),随机特征提取方法,包括非自适应随机投影(non-adaptive random projections)和随机森林(random forest)以及基于卷积的输入映射等等。
为了证明 BLS 的有效性,我们将与现有「主流」方法的分类能力进行比较,包括堆叠自动编码器(Stacked Auto Encoders,SAE),另一个版本的堆叠自动编码器(another version of stacked autoencoder,SDA),深度信念网络(Deep Belief Networks,DBN),基于多层感知器的方法(Multilayer Perceptron based methods,MLP)深玻尔兹曼机(Deep Boltzmann Machines,DBM),两种的基于 ELM 的多层结构,分别表示为 MLELM 和 HELM。在我们的实验中,网络由 10×10 特征节点和 1×11000 增强节点构成。相关的权重均为随机生成。
BLS 的测试精度以及其他所提到的深度算法测试精度如表格 1 所示。虽然 98.74% 不是最优秀的(事实上,深度学习的表现仍然比 SAE 和 MLP 好),BLS 在服务器上的训练时间被压缩到了 29.6968 秒。此外,应该注意的是,MNIST 数据特征的数量减少到 100。这个结果符合学者在大数据学习中的直觉,也就是现实应用中的数据信息通常是冗余的。
核心问题:深度学习和宽度学习的智能计算是在时空转换基础上进行的。
在操作系统中内存管理是多级页表来节省空间(这个就是深度的来源)
神经网络与深度学习入门教程中解释是:类比逻辑门微分编程计算技术做出来详细的Analogy的Logic Circuits和neural network,C++与C最大的区别在于bool计算和泛类编程。
同时为什么使用一种语言而不是其他语言,不是其他语言不行,而是python语言本身数据类型更加擅长与向量计算,C、C++、Java中封装的数组。向量容易升维成张量。张量流可以理解维矩阵,矩阵容易进行各种计算可以看看网易云上MIT的线性代数课程和台湾清华大学《线性代数》赵启超教授的课程就能体会到了,同时也是现代人工智能技术的基础。
目前的人工智能技术水平真心很一般不要听任何吹水,(可以上网看看:人工智能“农民工”中数据标记员)能很好的反应这一个事实。
辩证的态度看问题,目前只是深度学习比较流行和在某些领域比较擅长这种计算模型,在MIT和谷歌的数学和计算机科学这本书中有相关理论描述。从工业届考虑我们要根据不同的问题特征来选用不同方法,这种方法论就是学派。我们学东西最后如果能清晰的感受和利用学派的方向,那么我们在认知和实践上升华会到达一定程度。
机器学习有五大学派,我个人理解深度学习有三大学派。学习学习告诉我们要想更好:永无止境的接受新知识!让我们站在巨人肩上进步。
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/143623.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...