您现在的位置是:首页 > 正文

深度学习概念合集(二)

2024-02-29 13:32:10阅读 1

1、感受野(Receptive Field)

感受野的定义是卷积神经网络每一层输出的特征图(feature map)上的像素点在输入图片上映射的区域大小
在这里插入图片描述

参考:https://blog.csdn.net/program_developer/article/details/80958716

2、上采样(upsampling)

上采样:又名放大图像、图像插值;

主要目的是放大原图像,从而可以显示在更高分辨率的显示设备上;

上采样有3种常见的方法:双线性插值(bilinear),反卷积(Transposed Convolution),反池化(Unpooling);
插值算法还包括了传统插值,基于边缘图像的插值,还有基于区域的图像插值。

3、残差网络(Resnet)

56层比20层要错误要高很多,那多的36层怎么搞,需要来进行同等映射,不能剔除,那就把有用的层保持,无用的层权重参数变成0
原来卷积结果+最初的,旧和新的相加,里面可能有白玩的,好的用,错的白玩,这样就能保证至少不比原来差

在这里插入图片描述
50层101层比较常见

4、人工神经网络(ANN)

单个感知器(或神经元)可以想象为逻辑回归。人工神经网络(ANN)是一组多层感知器/神经元。ANN也被称为前馈神经网络,因为输入只在正向处理:在这里插入图片描述
ANN由3层组成:输入层、隐藏层和输出层。输入层接受输入,隐藏层处理输入,输出层生成结果。本质上,每一层都试图学习某些权重。
有激活函数

ANN可用于解决与以下相关的问题:
表格数据
图像数据
文本数据
在这里插入图片描述在这里插入图片描述

5、 卷积神经网络(CNN)

有卷积核,可以输入图像
其一是局部感受野,其二是权值共享,其三是 pooling 层,
卷积神经网络,也叫 CNN,由纽约大学的 Yann Lecun 于 1998 年提出,其本质是一个多层感知机,成功的原因在于其所采用的局部连接和权值共享的方式:
卷积和池化层:叠加实现对输入数据的特征提取,最后链接全连接层实现分类
对图像处理有出色表现,在计算机视觉中得到广泛应用

卷积神经网络:卷积层+池化层+全连接层

  1. 每个神经元只需要对 局部图像 进行感知
  2. 将在更高层将局部信息综合起来,得到全局信息
  3. 应用:图像分类、目标检测、目标跟踪、语义分割、实例分割等
    在这里插入图片描述

6、经典的卷积神经网络

http://t.csdn.cn/k0wU5

  1. LeNet5:LeNet5是由Y.LeCun等人提出的,主要进行手写数字识别和英文字母识别。没啥特点-不过是第一个CNN应该要知道

  2. AlexNet:引入了 ReLU 和 dropout,引入数据增强、池化相互之间有覆盖,三个卷积一个最大池化+三个全连接层

  3. VGG-16

  4. Inception Net:这个在控制了计算量和参数量的同时,获得了比较好的分类性能,和上面相比有几个大的改进:1、去除了最后的全连接层,而是用一个全局的平均池化来取代它; 2、引入 Inception Module,这是一个4个分支结合的结构。所有的分支都用到了 1x1 的卷积,这是因为 1x1 性价比很高,可以用很少的参数达到非线性和特征变换。3、Inception V2第二版将所有的 5x5 变成 2 个 3x3,而且提出来著名的 Batch Normalization;4、Inception V3 第三版就更变态了,把较大的二维卷积拆成了两个较小的一维卷积,加速运算、减少过拟合,同时还更改了 Inception Module 的结构。

  5. ResNet(残差神经网络):1、引入高速公路结构,可以让神经网络变得非常深 2、ResNet第二个版本将ReLU激活函数变成y=x的线性函数

  6. DenseNet (密集网络)

  7. UNet

R-CNN系列:另外发展起来的
在这里插入图片描述

7、 循环神经网络或递归神经网络(RNN)

在传统神经网络上改进的,有圈
输入——隐层——输出
在处理时间序列上有先天优势
CNN主要用来计算机视觉中,Rnn多用在自然语言处理中
http://t.csdn.cn/tc4wY
在这里插入图片描述
在这里插入图片描述

8、 LSTM

rnn每一个都堪称同等重要,但是每一个重要性不同,此模型就是将不重要的淘汰
过滤信息
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

9、对抗神经网络(GAN)

一种用来学习类别特征的神经网络结构,主要由两部分组成,生成网络、判别网络
http://t.csdn.cn/VcQ9N
在这里插入图片描述

10、孪生网络( Siamese Network)

孪生网络最早用于验证支票上的签名与银行预留签名是否一致,后用于对比两个输入的相似度,随后又慢慢应用到目标跟踪领域。

11、 语义分割

12、下采样(subsampled)

下采样:又名降采样、缩小图像;

主要目的有两个:1、使得图像符合显示区域的大小;2、生成对应图像的缩略图;

其实下采样就是池化

网站文章

  • [转载]实用而有效的美剧英文学习法

    [转载]实用而有效的美剧英文学习法

    如果没有英语学习资料你是否可以自己学习好英语?答案是肯定的,看英文美剧就是一个不错的英语学习方法,虽然这样在学习时间上有些长久,但是是在兴趣中学习,同样会有所提高的。那么如何通过美剧学习英语呢,一起来了解下吧。  1、学会选择适合自己的美剧      >>>最新英语教材免费大赠送  非常有特点或专业性的美剧,比如《越狱》《豪斯医生》《越狱》等,可以作为学习补充,但最好不要把它们

    2024-02-29 13:31:42
  • PyTorch中的Dataset

    注:本文源码基于PyTorch1.0,目前在PyTorch0.4下没有发现错误。 PyTorch中的Dataset是一个抽象类,我们可以通过继承Dataset来将数据集的源文件、规模和其他非必要的功能...

    2024-02-29 13:31:34
  • 【图论】有向图的强连通分量

    【图论】有向图的强连通分量

    目录有向图的强连通分量如何求强连通分量(TarjanTarjanTarjan算法)受欢迎的牛学校网络最大半连通子图 有向图的强连通分量 连通分量: 对于分量中任意两点u,vu,vu,v,必然可以从uu...

    2024-02-29 13:31:26
  • 5个超实用的Visual Studio插件

    5个超实用的Visual Studio插件

    工欲善其事,必先利其器,整理的一些我必装的5款Visual Studio插件,希望你们能get到。01 CodeMaidCodeMaid快速整理代码文件,规范你的代码,提高代码阅读体验。代码自动对齐,...

    2024-02-29 13:30:59
  • 回表查询和聚集索引

    回表查询和聚集索引

    什么是回表查询?这先要从InnoDB的索引实现说起,InnoDB有两大类索引:聚集索引(clustered index) 普通索引(secondary index)InnoDB聚集索引和普通索引有什么...

    2024-02-29 13:30:52
  • Properties类小结

    Properties类的小结

    2024-02-29 13:30:46
  • C++定义一个N*M的矩阵类

    #include<iostream> using namespace std; template<class T> class Matrix{ public: Matrix(int N, int M); //构造函数 Matrix(const Matrix &mat); //拷贝构造函数 ~Matrix(...

    2024-02-29 13:30:39
  • linux centos7 docker Dockerfile 构建springboot镜像并输入日志到宿主机及使用宿主机的application.yml

    linux centos7 docker Dockerfile 构建springboot镜像并输入日志到宿主机及使用宿主机的application.yml

    linux centos7 docker Dockerfile 构建springboot镜像并输入日志到宿主机及使用宿主机的application.yml

    2024-02-29 13:30:10
  • 基于区块链的物流解决方案

    基于区块链的物流解决方案

    科技进步与数字化的发展促成了所谓数字经济的形成,不过对这个术语有许多种解释,根据其中一种解释的说法,数字化被理解为一种在混合现实中运行的经济体。在毛球科技看来,实施这一进程的主要条件包括信息和通信技术...

    2024-02-29 13:30:04
  • mysql索引优化

    mysql索引优化

    mysql索引优化

    2024-02-29 13:29:58