卷积神经网络的一般结构

卷积神经网络是如何对人类对图像的认知进行拟合的?
谢谢~~~

0

1个回答

你这个问题太大了,完整解释有一本书的篇幅了。

简单概括说说吧。采纳本回答(点本回答左上角的采纳框)后你可以追问。

cnn主要的思路是,图片相当于一个二维的矩阵,它的每个像素是神经网络的一个输入维度,但是,这些维度并非独立存在的,而是按照几何组织规则起来的。
那些在坐标上有一定相对关系的点,它们被通过卷积核联系在一起,而简化了空间上距离很远的点的关系。从而降低了运算量。
而卷积核相当于一个共享参数的连接层,它用来匹配某个局部范围的特征,卷积层可以实现对图像倾斜、缩放等情况的识别匹配。
而把多个卷积层连起来,那么前面的层可以学习到简单的几何特征,比如线条、点、面。
中间的可以学到稍微复杂的几何特征,比如一个圆形、一个矩形,某几个几何或者颜色的叠加。
而最终,可以识别出物体,因为物体就是这些特征的叠加组合。
在cnn里,还使用了pooling层,因为高级特征并不需要那么像素点就能识别出来(识别出图是一架飞机,只要一个缩略图就够了,但是要识别出飞机上的窗户,就要更大的图,对吧),所以用pooling其实就是不断简化维度,得到缩略特征的过程。

0
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
卷积神经网络的结构
一个卷积神经网络主要由以下5种结构组成:1.输入层。输入层是整个神经网络的输入,在处理图像的卷积神经网络中,它一般代表了一张图片的像素矩阵。比如在图6-7中,最左侧的三维矩阵的长和宽代表了图像的大小,而三维矩阵的深度代表了图像的色彩通道(channel)。比如黑白图片的深度为1,而在RGB色彩模式下,图像的深度为3。从输入层开始,卷积神经网络通过不同的神经网络结构下将上一层的三维矩阵转化为下一层的...
典型卷积神经网络结构总结
典型卷积神经网络结构总结 LeNet:最早用于数字识别的CNN层关系如下: Data layer:1*28*28 Convolutional layer(5*5):20*24*24 Pooling(2*2, stride 2):20*12*12 Convolutional layer(5*5):50*8*8 Pooling(2*2, stride 2):50*4*4 Inner Product:50
卷积神经网络常见结构
卷积神经网络常见结构 卷积神经网络中常见的层类型有: 卷积层(CONV) 激活函数(ACT 或 RELU) 池化层(POOL) 全连接层(FC) Batch normalization(BN) Dropout(DO) 其中常见的组合为: 注: * 操作代表这里需要一次或者多次;?操作符代表这是可选操作,可以出现0次或者多次。 对于以上重复次数的常见选择是: 0<=N...
卷积神经网络的网络结构——ResNet
《Deep Residual Learning for Image Recognition》 2015,kaiming He et al,ResNet。 ResNet由微软研究院的kaiming He等4名华人提出,通过使用Residual Unit成功训练152层深的神经网络,在ILSVRC 2015比赛中获得了冠军,取得3.57%的top5错误率,同时参数量却比VGGNet低,效果非常...
全连接网络和卷积神经网络对比分析
全连接神经网络:不适合做图像识别原因:参数数量太多  考虑一个输入1000*1000像素的图片,输入层有1000*1000=100万节点。假设第一个隐藏层有100个节点,那么仅这一层就有(1000*1000+1)*100=1亿参数,这实在是太多了!我们看...
caffe中使用draw_net.py绘制卷积神经网络结构图
博主环境Ubuntu 14.04.4 LTS x64+caffe。 先看下成品。 上图是caffe中的经典模型Lenet5网络结构,图片展示的很清晰。 绘图需要使用./cafferoot/python/draw_net.py脚本。 调用命令 /username/caffe/python# python draw_net.py --rankdir TB ../examples/mn
从AlexNet理解卷积神经网络的一般结构
2012年AlexNet在ImageNet大赛上一举夺魁,开启了深度学习的时代,虽然后来大量比AlexNet更快速更准确的卷积神经网络结构相继出现,但是AlexNet作为开创者依旧有着很多值得学习参考的地方,它为后续的CNN甚至是R-CNN等其他网络都定下了基调,所以下面我们将从AlexNet入手,理解卷积神经网络的一般结构。 先给出AlexNet的一些参数和结构图: 卷积层:5层 全连接层...
CNN卷积神经网络层级结构
一、卷积神经网络层级结构 卷积神经网络层次结构包括: 数据输入层/ Input layer 卷积计算层/ CONV layer 激励层 / ReLU layer 池化层 / Pooling layer 全连接层 / FC layer 卷积计算层 如上图图所示,左边为数据集,右边为一个神经网络 窗口:卷积计算层会在数据集上选定一个窗口,从窗口内选择数据
卷积神经网络CNN介绍:结构框架,源码理解
卷积神经网络介绍:结构框架,源码理解   1.卷积神经网络结构 卷积神经网络是一个多层的神经网络,每层都是一个变换(映射),常用卷积convention变换和pooling池化变换,每种变换都是对输入数据的一种处理,是输入特征的另一种特征表达;每层由多个二维平面组成,每个平面为各层处理后的特征图(feature map)。 常见结构: 输入层为训练数据,即原始数据,网络中的每一个
十五、卷积神经网络(2):卷积神经网络的结构
本篇博客主要介绍了卷积神经网络的结构,并解释了使用这种结构的好处及原理,并总体分析了一个好的卷积神经网络都需要哪些部分。
常用卷积神经网络从基本原理到结构汇总
CNN的经典结构始于1998年的LeNet,成于2012年历史性的AlexNet,从此大盛于图像相关领域,主要包括:  1、LeNet,1998年  2、AlexNet,2012年  3、ZF-net,2013年  4、GoogleNet,2014年  5、VGG,2014年  6、ResNet,2015年LeNet前面博文已介绍,下面再补充介绍下其它几种网络结构。AlexNetAlexNet说明...
关于卷积神经网络的几种结构
卷积的过程就是提取对应特征的过程,获得高维的特征向量。 反卷积的过程事实上是一个稀疏编码的过程,要把卷积拿到的特征向量通过加权恢复到原有的输入图片关于dilate convolution 可见这篇博文https://zhuanlan.zhihu.com/p/23795111 我认为既然dilate convolution可以通过改变kernel的大小来改变可以看到的视野,那么多个不同的dilat
CNN入门讲解:如何理解卷积神经网络的结构
原创文章,一家之言。 个人公众号:follow_bobo 知乎号:蒋竺波 转载请通知本人。 大家好,我是波波,欢迎再次来到CNN入门讲解。 上次我们讲什么卷积以及卷积在卷积神经网络里的作用,那我们这一期来理一理卷积神经网络大致的结构
如何设计卷积神经网络架构和卷积、池化后图片大小的计算
如何设计卷积神经网络架构和卷积、池化后图片大小的计算(一)卷积神经网络及卷积层或池化层大小的设置 (1)如何设计卷积神经网络架构   下面的正则化公式总结了一些经典的用于图片分类问题的卷积神经网络架构:                      输入层→(卷积层+→池化层?)+→全连接层+     “+”表示一层或多层,“?”表示有或者没有     除了LeNet-5模型,2012年ImageNe...
CNN 卷积神经网络结构
CNNcnn每一层会输出多个feature map, 每个Feature Map通过一种卷积滤波器提取输入的一种特征,每个feature map由多个神经元组成,假如某个feature map的shape是m*n, 则该feature map有m*n个神经元。对于卷积层会有kernel, 记录上一层的feature map与当前层的卷积核的权重,因此kernel的shape为(上一层feature
CNN卷积神经网络层次结构
卷积神经网络层次结构包括: 数据输入层/ Input layer  卷积计算层/ CONV layer  激励层 / ReLU layer  池化层 / Pooling layer  全连接层 / FC layer  输入层(Input layer) 输入数据,通常会作一些数据处理,例如: 归一化:幅度归一化到同一范围 卷积计算层(CONV layer) 如上图图所示,左边为数据集...
卷积神经网络的网络结构——DenseNet
《Densely Connected Convolutional Networks 》 2017,Gao Huang et al,DenseNet 作者通过观察目前深度网络的一个重要特点就是都加入了shorter connections,能够让网络更深、更准确、更高效。作者充分利用了skip connection,设计了一种稠密卷积神经网络(Dense Convolutional Netw...
近年来的几种卷积神经网络的架构
这是博主的课程综述,请方家批评指正。                                
干货 | 深度学习之卷积神经网络(CNN)的模型结构
微信公众号 关键字全网搜索最新排名 【机器学习算法】:排名第一 【机器学习】:排名第一 【Python】:排名第三 【算法】:排名第四 前言 在前面我们讲述了DNN的模型与前向反向传播算法。而在DNN大类中,卷积神经网络(Convolutional Neural Networks,以下简称CNN)是最为成功的DNN特例之一。CNN广泛的应用于图像识别,当然现在也应用于NLP等其他领域
架构之美-最强卷积神经网络架构设计初想
今天迎来了我家两公子周岁生日,在这美好的日子里我用“美”为主题分享一下目前非常火非常火的CNN卷积神经网络。本文目录最美的是什么?经典架构回顾聊一聊这些架构有哪些优缺点架构设计思考什么是最美的卷积神经网络? 深度学习是近几年迅速发展起来的学科,其在物体识别、检测、跟踪等任务中获得了突破性进展。卷积神经网络(Convolutional Neural Network,CN...
机器学习大白话杂谈(1)——常见的卷积神经网络架构简介
    这篇文章需要一点点机器学习的基础,尽量讲成大白话。     卷积神经网络在当年也算是异军突起,一出现便将各个天梯榜屠的面目全非,今天我们就来聊一下有哪些常见的卷积神经网络结构。至于什么是卷积神经网络,你可以参考知乎大神的回答,能否对卷积神经网络工作原理做一个直观的解释。若是这个可以看的懂的话,我再推荐一个更底层一些的,原理上的。  如何通俗易懂地解释卷积?如果这两个都看懂了,那就继续下去...
深度卷积神经网络演化历史及结构改进脉络-40页长文全面解读
导言 从1989年LeCun提出第一个真正意义上的卷积神经网络到今天为止,它已经走过了29个年头。自2012年AlexNet网络出现之后,最近6年以来,卷积神经网络得到了急速发展,在很多问题上取得了当前最好的 结果,是各种深度学习技术中用途最广泛的一种。在本文中SIGAI将为大家回顾和总结卷积神经网络的整个发展过程。早期成果卷积神经网络是各种深度神经网络中应用最广泛的一种,在机器视觉的很多问题上都...
卷积神经网络结构变换-STN
出自Bin的专栏:http://blog.csdn.net/xbinworld 原文链接:传送门今天具体介绍一个Google DeepMind在15年提出的Spatial Transformer Networks,相当于在传统的一层Convolution中间,装了一个“插件”,可以使得传统的卷积带有了[裁剪]、[平移]、[缩放]、[旋转]等特性;理论上,作者希望可以减少CNN的训练数据量,以及减少...
卷积神经网络LeNet5结构
LeNet5可以说是最早的卷积神经网络了,它发表于1998年,论文原文Gradient-Based Learning Applied to Doucment Recognition作者是Yann Le Cun等。下面对LeNet5网络架构进行简单的说明,有兴趣的同学可以去参考原文,论文原文地址http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf。
卷积神经网络(cnn)的体系结构
  译者注 内容有部分增加与补充,阅读原文请点击这里   原作者的文章其实更利于读者对卷积本身的理解,但是实际上作者对卷积的现实意义的理解并没有解释的十分清楚,甚至可能不利于堵着的理解,也正因为如此我在翻译过程中可能对原文进行了比较大的改动,希望这对你有帮助.   实际上上卷积神经网络是来自神经学的研究,其计算过程实际上模拟了视觉神经系统的运算过程.这一部分内容其翻阅其他文章.   ...
结构虽简单,但性能强悍——3个小型卷积神经网络简介
原文链接:点击打开链接摘要: 本文介绍了三种小型结构的卷积神经网络,在降低计算复杂度的前提下,其性能也不错。此外,无需使用高性能计算机就可以进行仿真,适合初学者仿真体验。       人工智能、深度学习太火了,火到哪一个领域都有讨论的声音。稍微对深度学习有所了解的人们,尤其是对于计算机视觉领域有所涉猎的人们,当一听到深度学习、卷积神经网络时,脑海里不由得自动脑补这样一幅画面——一台满和负载嗡嗡响的...
CNN卷积神经网络和反向传播
本文内容来自: 1,Michael Nielsen的《Neural Networks and Deep Learning》中文翻译 2,http://www.cnblogs.com/pinard/p/6494810.html 3,http://blog.csdn.net/yunpiao123456/article/details/52437794卷积神经网络基础:首先看一下全连接网络,即神经元
CNN卷积神经网络结构及参数配置
来源:机器学习算法与自然语言处理作者:白雪峰转载于:https://blog.csdn.net/np4rHI455vg29y2/article/details/789581211、CNN例子Yann LeCun提出的最基本和开始的CNN结构图2、什么是CNN2.1、什么是卷积连续和离散卷积的定义:特点:2.2、离散卷积的例子丢骰子时加起来要等于4的概率是多少?二维离散的卷积计算的动图如下2.3、用...
LeNet-5卷积神经网络的网络结构(参数计算)及tensorflow实现
卷积神经网络是一种特殊的多层神经网络,像其它的神经网络一样,卷积神经网络也使用一种反向传播算法来进行训练,不同之处在于网络的结构。卷积神经网络的网络连接具有局部连接、参数共享的特点。局部连接是相对于普通神经网络的全连接而言的,是指这一层的某个节点只与上一层的部分节点相连。参数共享是指一层中多个节点的连接共享相同的一组参数。   一个典型的神经网络的结构是全连接的,即某一层的某个节点与上一层的每
卷积神经网络--卷积神经网络的原理和结构
目录 1.三个性质 1.1局部性 1.2相同性 1.3不变性 2.网络的层结构 2.1卷积层 2.1.1局部连接 2.1.2空间排列 2.1.3参数共享 2.2池化层 2.3.全连接层 3.卷积神经网络的基本形式 4.补充 4.1小滤波器的有效性 4.2网络的尺寸设计   卷积神经网络于1998年由Yann Lecun提出,卷积网络用于处理计算机图像。图像分类是...
深度卷积神经网络基本介绍
    关于深度卷积神经网络的前世今生,就不在此处进行过多的介绍。在此,主要对网络的各个组成部分进行简要介绍:图1 基本的深度卷积网络结构       通过图1可知深度卷积神经网络主要是由输入层、卷积层、激活函数、池化层、全连接层和输出层组成。以下将以人脸识别为例对网络的各个组成部分进行简单的介绍:        输入层:深度卷积网络可直接将图片作为网络的输入,通过训练提取特征,但是为了获得更好的...
TensorFlow 深度学习框架(8)-- 卷积神经网络结构 CNN
卷积神经网络简介如图显示了全连接神经网络与卷积神经网络的机构对比图、虽然图中显示的全连接神经网络结构和卷积神经网络机构直观上差异比较大,但是实际上它们的整体架构是非常相似的。卷积神经网络也是通过一层一层的节点组织起来的。和全连接神经网络一样,卷积神经网络每一个节点都是一个神经元。在全连接网络中,每相邻两层之间的节点都有边相连,于是一般会将每一层全连接层中的节点组织成一列,这样方便显示连接结构。而对...
11、卷积神经网络:结构、卷积/汇集层
层、空间布局、层模式、层大小模式、AlexNet/ZFNet/VGGNet 案例研究、计算考虑 卷积神经网络 (CNNs / ConvNets) 卷积神经网络与前一章的神经网络非常相似:它们是由具有可学习的权值和偏置的神经元组成的。每个神经元接收一些输入,执行点积,跟随一个非线性计算(可选项)。整个网络仍然表示一个可微的得分函数:从一端的原始图像像素到另一个的分数。并且它们在最后(完全连接)层...
从神经网络到卷积神经网络的了解
date: 2016-09-14 11:02 老师提供的阅读材,上周就应该看完,但还是没看,这周需要看完然后看两篇FNN的论文并做一个report。 提供的材料是CS231n PS:才发现有翻译,真真好人,我真真浪费时间t-T PPS:再也不干像一句一句翻译这么笨蛋的方法了。学习还是理解为主。以下仅为总结摘抄的笔记。仅供自己学习与回忆。 神经网络神经网络是一种模仿生物神经网络(
重磅论文:解析深度卷积神经网络的14种设计模式
 http://www.jiqizhixin.com/article/1772 这篇论文的作者是来自美国海军研究实验室的 Leslie N. Smith 和来自美国马里兰大学的 Nicholay Topin,他们在本论文中总结了深度卷积神经网络的 14 种设计模式;其中包括:1. 架构结构遵循应用;2. 扩增路径;3. 努力实现简洁;4. 增加对称性;5. 金字塔形状;6. 用
卷积神经网络(CNN)标准模型分析(四)
卷积神经网络的变种模型(一)卷积神经网络可以改变输入的形式,比如说把一副图像的R、G、B三个通道看做一个整体输入,并且采用3D的卷积核,建立3D卷积神经网络模型,以处理视频图像。 (二)卷积神经网络可以采用重叠池化来进行下采样,比如在AlexNet中就采用了重叠池化的技术。池化就是对矩阵数据进行分块下采样。在标准的卷积神经网络中,池化分块是不允许重叠的。如果允许重叠,那么将产生更大的下采样层,学习
卷积神经网络的网络结构——以LeNet-5为例
卷积神经网络是一种特殊的多层神经网络,像其它的神经网络一样,卷积神经网络也使用一种反向传播算法来进行训练,不同之处在于网络的结构。卷积神经网络的网络连接具有局部连接、参数共享的特点。局部连接是相对于普通神经网络的全连接而言的,是指这一层的某个节点只与上一层的部分节点相连。参数共享是指一层中多个节点的连接共享相同的一组参数。
DL06-卷积神经网络CNN经典模型整理
题目:深度学习方法(五):卷积神经网络CNN经典模型整理Lenet,Alexnet,Googlenet,VGG,Deep Residual Learning 作者:Bin 来源:http://blog.csdn.net/xbinworld/article/details/45619685 本文出自Bin的专栏blog.csdn.net/xbinworld
CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构的区别
神经网络技术起源于上世纪五、六十年代,当时叫感知机(perceptron),拥有输入层、输出层和一个隐含层。输入的特征向量通过隐含层变换达到输出层,在输出层得到分类结果。早期感知机的推动者是Rosenblatt。
卷积神经网络训练三个概念(epoch,迭代次数,batchsize)
总结下训练神经网络中最最基础的三个概念:Epoch, Batch, Iteration。 1. 名词解释 epoch:训练时,所有训练数据集都训练过一次。 batch_size:在训练集中选择一组样本用来更新权值。1个batch包含的样本的数目,通常设为2的n次幂,常用的包括64,128,256。 网络较小时选用256,较大时选用64。 iteration​:训练时,1个batch训练图像...
文章热词 卷积神经网络结构 卷积神经网络结构定义 tensorflow卷积神经网络结构 卷积神经网络原理 卷积神经网络参数
相关热词 c++一般 用来干嘛 用c++实现卷积神经网络 c++ 运行时异常与一般异常 人工智能培训一般多少钱 python一般培训多久