关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
2,4(1H,3H)-PD are mine
2022-06-17 00:31
采纳率: 100%
浏览 23
首页
人工智能
已结题
关于#神经网络#的问题:卷积神经网络中的池化过程,是对输入层池化,还是提取特征值后再池化
机器学习
人工智能
神经网络
卷积神经网络中的池化过程,是对输入层池化,还是提取特征值后再池化?
收起
写回答
好问题
0
提建议
关注问题
微信扫一扫
点击复制链接
分享
邀请回答
编辑
收藏
删除
收藏
举报
3
条回答
默认
最新
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
似水不惧
2022-06-17 11:47
关注
卷积神经网络结构决定它先利用卷积层提取特征,将提取的特征输入到池化层进行池化,和输入层没关系了
本回答被题主选为最佳回答
, 对您是否有帮助呢?
本回答被专家选为最佳回答
, 对您是否有帮助呢?
本回答被题主和专家选为最佳回答
, 对您是否有帮助呢?
解决
无用
评论
打赏
微信扫一扫
点击复制链接
分享
举报
评论
按下Enter换行,Ctrl+Enter发表内容
查看更多回答(2条)
向“C知道”追问
报告相同问题?
提交
关注问题
卷积神经网络
,全连接
层
就是一个全连接
神经网络
吗
人工智能
机器学习
深度学习
神经网络
2021-01-04 10:51
回答 3
已采纳
所有各种
层
连接在一起被叫做
神经网络
,如果这个
神经网络
只有全连接
层
,则叫做全连接
神经网络
。 “通过这三个
层
次将一个多种颜色通道高像素的图片
提取
特征,进行简化,然后将简化的结果当作一个全连接
神经网络
的输
神经网络
如何
输入
时间型变量?
数据挖掘
机器学习
神经网络
2020-05-01 15:39
回答 1
已采纳
星期几可以用 1 2 3 4 5 6 7 表示 时间可以以这个时间距当天0:00的分钟数作为数据。比如8:05可以表示为485 11:20可以表示为680
神经网络
小白
问题
:训练误差太大,是程序写错了么???
matlab
神经网络
2017-11-24 12:10
回答 1
已采纳
输出每步的loss试试,看到底有没有下降
卷积神经网络
核心:特征
提取
(2023.1.21,除夕).zip
2023-01-21 20:53
本资料“
卷积神经网络
核心:特征
提取
”将深入探讨CNN如何通过其独特的结构来有效地
提取
图像特征。 CNN的核心特性包括卷积
层
、
池化
层
、激活函数和全连接
层
。这些组件共同作用,使得CNN能够从原始像素数据
中
学习到...
bp
神经网络
各
层
激活函数的选择
matlab
有问必答
神经网络
问答团队
2021-05-25 18:45
回答 2
已采纳
以下是我想出来的几个思路用于重新考虑你自己的
神经网络
。 1. 你用了几
层
神经网络
?一
层
神经网络
很可能无法解决异或等线性不可分
问题
,多
层
神经网络
加上非线性激活函数可以解决这一
问题
。 2. 你是自己手
如何将训练好的BP
神经网络
模型保存并可以在其他py文件
中
直接调用?
python
有问必答
机器学习
神经网络
2021-06-09 10:53
回答 2
已采纳
这个需要建立字典封装起来
用BP
神经网络
进行预测,loss比较小,但预测值跟实际值相差较大,怎么办
keras
python
有问必答
神经网络
2021-07-19 21:04
回答 1
已采纳
首先怀疑过拟合, 减少迭代次数, 像这种非常简单的数据拟合, 完全不需要200这么大的周期, 一般30-50个足够
卷积神经网络
-
池化
层
2024-04-01 21:59
longerVR的博客
池化
层
(Pooling Layer)是深度学习
神经网络
中
的一个重要组成部分,通常用于减少特征图的空间尺寸,从而降低模型复杂度和计算量,同时还能增强模型的不变性和鲁棒性。
池化
层
在CNN
中
起到了非常重要的作用,可以有效地...
深度
神经网络
训练
过程
中
,损失函数的值没有变化
神经网络
2017-07-04 07:37
回答 1
已采纳
问题
解决了,是激活函数的
问题
,relu激活函数的激活率太低,很多神经元死掉了
神经网络
训练集添加高斯噪声
python
开发语言
神经网络
2021-02-01 11:00
回答 1
已采纳
1,如果网路
中
使用了normalization
层
,则不需要重新归一化; 2,如果不放心,可以使用“截断”,让小于0的变成0,大于1的变成1即可。
关于#python#的
问题
:
输入
一个正整数n,打印出相对应的数字图形
输入
格式
python
有问必答
2022-03-27 13:50
回答 2
已采纳
n = int(input(">>>")) for i in range(1, n + 1): print(f"{str(i)*i:>{n}}")
卷积神经网络
(CNN)
中
的
池化
层
(Pooling Layer)
2024-11-19 10:58
搏博的博客
具体操作则是,基于局部相关性的思想,通过从局部相关的一组元素
中
进行采样或信息聚合,从而得到新的元素值。...
池化
层
的主要作用是通过减少特征图的尺寸来降低计算量,并且可以
提取
出特征图的主要信息。
Visio画的
卷积神经网络
结构图模板【包含卷积
池化
操作的绘图,以及线性
层
的绘图】
2023-09-26 10:07
卷积神经网络
(Convolutional Neural Network,简称CNN)是一种深度学习模型,广泛应用于图像识别、计算机视觉等领域。Visio是一款强大的图形绘制软件,能够帮助用户创建各种专业图表,包括复杂的
神经网络
结构图。本...
verilog实现
卷积神经网络
CNN,包括卷积
层
,Relu激活
层
,FC全连接
层
,pool
池化
层
2022-04-22 02:58
卷积神经网络
(CNN)是深度学习领域
中
的关键模型,特别是在图像识别和处理任务
中
表现卓越。本项目采用Verilog语言实现了一个完整的CNN框架,涵盖了CNN的四个核心组成部分:卷积
层
、ReLU激活
层
、全连接
层
(FC)以及...
卷积神经网络
-
池化
(Pooling)篇
2024-08-03 08:35
绎岚科技的博客
在深度学习的广阔领域
中
,
卷积神经网络
(CNN)以其卓越的特征
提取
能力,在图像识别、视频处理及自然语言处理等多个领域展现出非凡的潜力。而
池化
(Pooling)作为CNN
中
的关键组件之一,扮演着不可或缺的角色。
池化
层
...
没有解决我的问题,
去提问
向专家提问
向AI提问
付费问答(悬赏)服务下线公告
◇ 用户帮助中心
◇ 新手如何提问
◇ 奖惩公告
问题事件
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
系统已结题
6月25日
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
已采纳回答
6月17日
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
创建了问题
6月17日