qq_45603563 2023-11-11 11:00 采纳率: 90%
浏览 3

深度神经网络的运行机制

假如一共有10s的数据,采样时间是0.01s,输入是10维的,输入数据是(10,1000),划分成10批,即bitch_size是(10,100),
请问:1.每一批的输入数据是图中这样的吗?第一批是0到1秒的数据,间隔是0.01s,第二批是1到2s的数据,以此类推。

img

我没太明白下图中的seq_length是我的假设中的哪个数?图中的t1至tn都是我假设中的哪个数?我的输入是二维的,并不是三维的

img

2.每一批数据输入到神经元是这样输入的吗?

img

因为我看batch_size的定义是一次送入神经网络的数据,那是下图这个意思吗?还是上图的意思?

img

刚刚学习深度学习没多久,希望知道的能帮忙解答下,您的每句话都可能给我一点启发,谢谢!

  • 写回答

1条回答 默认 最新

  • CSDN-Ada助手 CSDN-AI 官方账号 2023-11-11 14:52
    关注

    【以下回答由 GPT 生成】

    问题解答: 1. 是的,你的划分是正确的。根据给定的数据样本,每个样本的时间间隔是0.01s,总共有10s的数据。将数据划分为batch,每个batch的大小是(10, 100)的矩阵,表示每个batch包含10个样本,每个样本有100个时间步长(time steps)。第一个batch包含0到1秒的数据,间隔为0.01s;第二个batch包含1到2秒的数据,以此类推。

    1. 在深度学习中,"seq_length"通常指的是每个样本的时间步长数,即样本的序列长度。根据你的描述,你的输入是二维的,而不是三维的,所以不存在"t1"到"tn"的概念。

    2. 每个batch的数据通常会以时间步(time step)的方式输入到神经网络中。在深度学习中,输入数据的维度通常是(batch_size, seq_length, input_dim),其中batch_size是每个batch的样本数,seq_length是每个样本的时间步长数,input_dim是每个时间步的输入维度。对于每个时间步,网络会处理一个输入向量,并输出相应的结果。

    3. "batch_size"通常指的是下面那张图片中每一组样本的数量,也就是每个batch的样本数。上面那张图片中,并没有直接表示"batch_size"的概念。所以你可以根据需要,将输入数据进行划分成适合的batch_size。


    如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^
    评论

报告相同问题?

问题事件

  • 修改了问题 11月11日
  • 创建了问题 11月11日

悬赏问题

  • ¥20 无法创建新的堆栈防护界面
  • ¥15 sessionStorage在vue中的用法
  • ¥15 wordpress更换域名后用户图片头像不显示
  • ¥15 如何在ubunto上安装CEF (Chromium Embedded Framework),并且基于qt实现打开一个web
  • ¥30 AD9854 为什么输出波形幅度受限,AI机器人勿扰
  • ¥15 如何在ubunto上安装CEF (Chromium Embedded Framework
  • ¥15 数据库原理及应用上机练习题
  • ¥15 如何联系真正的开发者而非公司
  • ¥15 有偿求苍穹外卖环境配置
  • ¥15 代码在keil5里变成了这样怎么办啊,文件图像也变了,