宽度学习与深度学习中的时空转化问题

宽度学习与深度学习中的时空转化问题ž在自然界中运动是绝对的,静止是相对的。这句话也说明了深度学习过去、现在、未来。由于我发现山东大学有个组和澳门大学陈俊龙团队的宽度学习、极限学习等。目前由于神经网络是黑盒研究、所以很多人利用反卷积和卷积可视化来解释这种微分和积分的编程,由于冗余和稀疏特性使用微积分或者差分求导数和偏导是必然。宽度学习文章和代码研究地址:http://www.broadlearning.ai在深度学习上目…

大家好,又见面了,我是你们的朋友全栈君。

ž在自然界中运动是绝对的,静止是相对的。这句话也说明了深度学习过去、现在、未来。由于我发现山东大学有个组和澳门大学陈俊龙团队的宽度学习、极限学习等。
目前由于神经网络是黑盒研究、所以很多人利用反卷积和卷积可视化来解释这种微分和积分的编程,由于冗余和稀疏特性使用微积分或者差分求导数和偏导是必然。
宽度学习文章和代码研究地址:http://www.broadlearning.ai
在深度学习上目前比较流行的:DBN深度信任网络、DBM(深度玻耳兹曼机)、CNN(卷积神经网络)、RNN(循环神经网络)、自编器。
SLFN(单层前馈神经网络)应用在回归和分类,由 Yoh-Han Pao 教授在 1990 年代提出的随机向量函数链接神经网络(random vector functional link neural network,RVFLNN)提供了不同的学习方法。
特征提取和降维
实现效率突出的特征提取常用方法包括,变量排序(variable ranking),特征子集选择(feature subset selection),惩罚最小二乘法(penalized least squares),随机特征提取方法,包括非自适应随机投影(non-adaptive random projections)和随机森林(random forest)以及基于卷积的输入映射等等。

为了证明 BLS 的有效性,我们将与现有「主流」方法的分类能力进行比较,包括堆叠自动编码器(Stacked Auto Encoders,SAE),另一个版本的堆叠自动编码器(another version of stacked autoencoder,SDA),深度信念网络(Deep Belief Networks,DBN),基于多层感知器的方法(Multilayer Perceptron based methods,MLP)深玻尔兹曼机(Deep Boltzmann Machines,DBM),两种的基于 ELM 的多层结构,分别表示为 MLELM 和 HELM。在我们的实验中,网络由 10×10 特征节点和 1×11000 增强节点构成。相关的权重均为随机生成。

BLS 的测试精度以及其他所提到的深度算法测试精度如表格 1 所示。虽然 98.74% 不是最优秀的(事实上,深度学习的表现仍然比 SAE 和 MLP 好),BLS 在服务器上的训练时间被压缩到了 29.6968 秒。此外,应该注意的是,MNIST 数据特征的数量减少到 100。这个结果符合学者在大数据学习中的直觉,也就是现实应用中的数据信息通常是冗余的。
核心问题:深度学习和宽度学习的智能计算是在时空转换基础上进行的。
在操作系统中内存管理是多级页表来节省空间(这个就是深度的来源)
神经网络与深度学习入门教程中解释是:类比逻辑门微分编程计算技术做出来详细的Analogy的Logic Circuits和neural network,C++与C最大的区别在于bool计算和泛类编程。
同时为什么使用一种语言而不是其他语言,不是其他语言不行,而是python语言本身数据类型更加擅长与向量计算,C、C++、Java中封装的数组。向量容易升维成张量。张量流可以理解维矩阵,矩阵容易进行各种计算可以看看网易云上MIT的线性代数课程和台湾清华大学《线性代数》赵启超教授的课程就能体会到了,同时也是现代人工智能技术的基础。
目前的人工智能技术水平真心很一般不要听任何吹水,(可以上网看看:人工智能“农民工”中数据标记员)能很好的反应这一个事实。
辩证的态度看问题,目前只是深度学习比较流行和在某些领域比较擅长这种计算模型,在MIT和谷歌的数学和计算机科学这本书中有相关理论描述。从工业届考虑我们要根据不同的问题特征来选用不同方法,这种方法论就是学派。我们学东西最后如果能清晰的感受和利用学派的方向,那么我们在认知和实践上升华会到达一定程度。
机器学习有五大学派,我个人理解深度学习有三大学派。学习学习告诉我们要想更好:永无止境的接受新知识!让我们站在巨人肩上进步。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/143623.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

  • Storm翻版:开源实时数据处理系统Samza

    Storm翻版:开源实时数据处理系统Samza

  • pycharm如何全局进行查找一个关键词

    pycharm如何全局进行查找一个关键词PyCharm的FindinPath功能提供了全局查找功能,快捷键为Ctrl+Shift+F。Find则是在当前文件查找,快捷键为Ctrl+F。这两个个功能非常实用。FindinPath的使用:按快捷键Ctrl+Shift+F或从从菜单Edit-》Find-》FindinPath进入全局查找界面。如下图所示,在Texttofind输入要查找的内…

  • java中pageInfo分页带条件查询+查询条件的回显「建议收藏」

    java中pageInfo分页带条件查询+查询条件的回显「建议收藏」代码如下:解析在下边<%--CreatedbyIntelliJIDEA.User:AdministratorDate:2018/1/17Time:19:10TochangethistemplateuseFile|Settings|FileTemplates.--%>Title

    2022年10月29日
  • 数据不平衡之SMOTE算法

    数据不平衡之SMOTE算法在企业的数据分析中,很少会遇到正负样本数据比例平衡的状况。通常情况是,绝大多数为正样本,而只有极少数(几个或者十几个)负样本。在这种情况下,不论是用LR,SVM或者基于提升方法的随机森林,直接用该数据集进行学习的效果都不会太好,原因是这些方法的学习结果都会偏向于样本较多的一类。另一个方面,对学习结果进行评估时,假如正样本占95%,负样本仅占5%,这样甚至不需要学习,直接把所有新样本预测为正,准确率

  • git 命令怎么删除远程分支文件_git删除远程仓库分支

    git 命令怎么删除远程分支文件_git删除远程仓库分支本地删除请看:git命令怎么删除本地分支查看所有分支查看项目的远程分支:gitbranch-r删除远程分支比如我们要删除远程分支origin/SLT_table_reportgitpushorigin-d分支名我们执行:gitpushorigin-dSLT_table_report删除成功注意这里不能写成origin/SLT_table_report,不然会报错:具体请参考【git删除远程分支报错error:unabletodelete‘

    2022年10月16日
  • 软链接和硬链接到底有啥作用和区别呢_玉溪硬盒和软盒的区别

    软链接和硬链接到底有啥作用和区别呢_玉溪硬盒和软盒的区别前言:在网上搜索了好久,看了很多博客,某度知道等等。关于软硬链接的解释都太模糊,还有什么i节点,跨分区根本弄不明白,在查阅了书籍和询问老师后决定自己写一篇简单的博文,然初学者都能够明白的博文。一建立软链接和硬链接的语法软链接:ln-s源文件目标文件硬链接:ln源文件目标文件源文件:即你要对谁建立链接二什么是软链接和硬链接1,软链接可以理解成快捷方式。它和wind

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号