不服不行咔咔咔 2023-07-19 15:46 采纳率: 33.3%
浏览 27

训练贝叶斯神经网络(BNN)

https://ww2.mathworks.cn/help/deeplearning/ug/train-bayesian-neural-network.html?s_tid=srchtitle_TRAIN%20%20%20bnn_1

  • 换数据集,应该调整哪几个参数,训练网络使得结果良好?
  • 贝叶斯全连接层的作用是什么?如何更换结构为卷积贝叶斯神经网络?
  • 写回答

1条回答 默认 最新

  • CSDN-Ada助手 CSDN-AI 官方账号 2023-07-19 19:26
    关注
    • 这篇博客也许可以解决你的问题👉 :二值化神经网络(BNN)综述
    • 除此之外, 这篇博客: BNN领域开山之作——不得错过的训练二值化神经网络的方法中的 确定二值化以及随机二值化 部分也许能够解决你的问题, 你可以仔细阅读以下内容或跳转源博客中阅读:
    • 所谓的确定二值化,指使用一种固定的方式将实值转为二值(+1或-1),转换公式为:
      xb=Sign⁡(x)={+1 if x≥0−1 otherwise  x^{b}=\operatorname{Sign}(x)= \begin{cases}+1 & \text { if } x \geq 0 \\ -1 & \text { otherwise }\end{cases} xb=Sign(x)={+11 if x0 otherwise 
      而所谓的随机二值化的转换公式为:
      xb={+1 with probability p=σ(x)−1 with probability 1−p x^{b}= \begin{cases}+1 & \text { with probability } p=\sigma(x) \\ -1 & \text { with probability } 1-p\end{cases} xb={+11 with probability p=σ(x) with probability 1p
      其中的σ\sigmaσ指 “hard sigmoid” 函数,具体为:
      σ(x)=clip⁡(x+12,0,1)=max⁡(0,min⁡(1,x+12)) \sigma(x)=\operatorname{clip}\left(\frac{x+1}{2}, 0,1\right)=\max \left(0, \min \left(1, \frac{x+1}{2}\right)\right) σ(x)=clip(2x+1,0,1)=max(0,min(1,2x+1))
      尽管随机二值化看起来更吸引人,但是在具体实现的时候需要硬件产生随机位,因此,除了某些特定的实验以外,文章主要采用确定二值化的方式

    评论

报告相同问题?

问题事件

  • 创建了问题 7月19日

悬赏问题

  • ¥15 谁有RH342练习环境
  • ¥15 STM32F407 DMA中断问题
  • ¥15 uniapp连接阿里云无法发布消息和订阅
  • ¥25 麦当劳点餐系统代码纠错
  • ¥15 轮班监督委员会问题。
  • ¥15 基于作物生长模型下,有限水资源的最大化粮食产量的资源优化模型建立
  • ¥20 关于变压器的具体案例分析
  • ¥15 生成的QRCode圖片加上下載按鈕
  • ¥15 板材切割优化算法,数学建模,python,lingo
  • ¥15 科来模拟ARP欺骗困惑求解