第二章 learning unsuoerxised festure representations of remote sensing data with sparse convolutional

2.1 Introduction

第一段:

内容:

总述了很多领域都是用的结构化的领域(时间空间维度有固定的格式);

结构化的坐标表示数据在可视化理解和设计算法上有很大的难度由于高维度和协方差矩阵的相关性;

这就是为什么特征表示在科学界有很多兴趣;

这就是特征提取和降维的领域有监督和无监督学习的方法。

好的语句:

1.fields like ****work in the **, in which(解释**)

2.from a geometrical viewpoint, **,but visualizing, understanding and designing algorithms therein is challenging,mainly due to the high dimensionality and correlation between covariates.在可视化理解和设计算法上有很大的难度由于高维度和协方差矩阵的相关性

3. this is why **has captured a lot of interest in the scientific community.这就是为什么**在科学界有很多兴趣

4.this is the field of **,for which ****

第二段

内容:

介绍了一些无监督学习的原始方法:

1.总述:在标签稀疏的情况下,无监督学习是首选

2.介绍一些传统的算法主成分分析以及非线性的流形学习算法(局部和非局部);

3.深度学习成为一个趋势;

4.自动编码:

an autoencoder is a deep learning architecture in which the input signal is reconstructed/decoded at the output layer through an intermediate layer with reduced number of hidden nodes. Basically, the autoencoder aims at reproducing the inputs at the output layer by using the high-abstraction features learned in the intermediate layer. The use of autoencoders implies, however, the tuning of several free parameters, addressing the regularization issue mainly by limiting the structure of the network heuristically.自动编码器是一种深度学习体系结构,其中输入信号通过隐藏节点数量减少的中间层在输出层进行重构/解码。基本上,自动编码器的目标是通过利用在中间层学习到的高抽象特征来再现输出层的输入。然而,自动编码器的使用意味着要调整几个自由参数,主要通过启发式地限制网络的结构来解决正则化问题。
5.用深度网路存在的问题,是由于自然数据形成的过程导致了强的自相关函数(在空间和时间上)、重尾、强的特征相关性,不一定是线性的,以及(从流形学习的角度来看)数据存在于(很多)低维的子空间中。这可以解释为,观察结果是由一个简单得多的机制产生的,人们应该寻求一个稀疏的表示;

While the issue of non-linear feature extraction can be resolved with deep networks efficiently, there is still the issue of what a sensible criterion should be employed. Natural data, namely, data generated by a physical process or mechanism, often show strong autocorrelation functions (in space and time), heavy tails, strong feature correlations, not necessarily linear, and (from a manifold learning perspective) data lives in subspaces of (much) lower dimensionality. This can be interpreted as that the observations were generated by a much simpler mechanisms, and that one should seek for a sparse representation
6.稀疏编码和字典学习都是很好地无监督学习方法。字典学习:
A dictionary can be understood as a set of bases that sparsely  represent the original data. The main goal in dictionary learning is to find a dataset to best represent the inputs by only using a small subset (also known as atoms) of the dictionary.字典可以理解为一组稀疏地表示原始数据的基。字典学习的主要目标是通过只使用字典的一个小子集(也称为原子)来找到一个最好地表示输入的数据集。

未解决的问题:

These methods describe the input images in sparse representation spaces but do not take advantage of the high non-linear nature of deep architectures. However, attaining sparse non-linear deep networks is still unresolved in the literature, especially in unsupervised learning。
这些方法描述了稀疏表示空间中的输入图像,但没有利用深度体系结构的高非线性性质。然而,获得稀疏非线性深度网络在文献中仍未得到解决,特别是在无监督学习中

好的语句:

1.** is the prefered approach in cases of *****  在*****的情况下,** 是首选

2.**method can be mainly categorized as either local or global approaches. Local methods retain local geometry of data, and are computationally efficient since only sparse matrix computations are needed. Global manifold methods, on the other hand, keep the entire topology of the dataset, yet are computationally expensive for large datasets. They have higher generalization power, but local ones can perform well on datasets with different sub-manifolds.局部和非局部的优劣势

3.The use of **in *** is wide spread for a wide range of applications, including****.**在**方面有广泛应用比如:

2.2 sparse unsupervised convolutional networks

deep learning for the earth sciences 读书笔记相关推荐

  1. Deep Learning(深度学习)学习笔记整理系列之(五)

    Deep Learning(深度学习)学习笔记整理系列 zouxy09@qq.com http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0 2013-04 ...

  2. Deep Learning(深度学习)学习笔记整理系列之(二)

    Deep Learning(深度学习)学习笔记整理系列 zouxy09@qq.com http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0 2013-04 ...

  3. Deep Learning(深度学习)学习笔记整理系列之(八)

     Deep Learning(深度学习)学习笔记整理系列之(八) 分类: Deep Learning 机器学习 Linux驱动2013-04-10 11:4257652人阅读评论(25)收藏举报 ...

  4. Deep Learning(深度学习)学习笔记整理系列三

    Deep Learning(深度学习)学习笔记整理系列 声明: 1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的.具体引用的资料请看参考文献.具体的版本声明 ...

  5. Deep Learning(深度学习)学习笔记整理(二)

    本文整理了网上几位大牛的博客,详细地讲解了CNN的基础结构与核心思想,欢迎交流 [1]Deep learning简介 [2]Deep Learning训练过程 [3]Deep Learning模型之: ...

  6. Deep Learning(深度学习)学习笔记整理系列之常用模型

    Deep Learning(深度学习)学习笔记整理系列之常用模型(四.五.六.七) 九.Deep Learning的常用模型或者方法 9.1.AutoEncoder自动编码器 Deep Learnin ...

  7. Deep Learning(深度学习)学习笔记整理系列之(七)

    Deep Learning(深度学习)学习笔记整理系列 zouxy09@qq.com http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0 2013-04 ...

  8. Yoshua Bengio新书《Deep Learning》深度学习(中文)学习笔记(improving)

    Yoshua Bengio新书<Deep Learning>深度学习(中文)学习笔记: http://download.csdn.net/detail/forest_world/97057 ...

  9. 【转载】Deep Learning(深度学习)学习笔记整理系列

    Deep Learning(深度学习)学习笔记整理系列 zouxy09@qq.com http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0  2013-0 ...

最新文章

  1. 设计模式之简介及其分类
  2. java单例模式_在Java中实现单例模式
  3. 安全网关之三:IPTables
  4. 開發MOSS2007 Masterpage的一些經驗
  5. 静态内部类实现 单例模式
  6. Spring Ioc创建对象的方式
  7. 如何从零学习Python----知乎答案
  8. How to activate an Anaconda environment
  9. 华中科技大学计算机徐明,华中科技大学2011年本科特优生名单
  10. 模糊PID(自适应模糊PID、fuzzy PID)的基本原理及应用举例 by 研三笔记
  11. BGP 下一跳的理解和实验
  12. win10如何删除计算机用户,Win10系统如何删除账户?Win10系统删除账户的方法
  13. linux系统修改Mac地址
  14. 【Java项目-飞翔的小鸟】附源码
  15. 常微分方程简要复习_笔记_第2章:一阶微分方程的初等解法
  16. diskpart给u盘分区
  17. MySQL高级查询语句——超详细,一篇就够了
  18. Xmind教程:思维导图原来这么简单实用!
  19. js中call()与apply()方法
  20. CEO自测问卷:你是公司的天花板吗?

热门文章

  1. 【知乎问题】如何让不懂编程的人感受到编程的魅力
  2. OCA/OCP Oracle 数据库12c考试指南读书笔记:第3章: Installing Oracle Grid Infrastructure for a Stand-Alone Server
  3. 网件 设置为ap_如何设置Netgear Arlo Pro相机系统
  4. 数据库包含哪几种锁?
  5. 三维目标检测算法汇总学习笔记
  6. 为什么会亏钱,亏钱的逻辑(一)
  7. NSACE认证|从事网络安全行业需要哪些知识储备?
  8. 语言学句法分析树形图怎么画_教你如何能画语言学树型图
  9. 大数据引擎 Spark 的全套知识体系,终于搞到了!
  10. 智慧城市指挥调度系统软件解决方案