• 全部
  • 关注
  • 有问必答
  • 等你来答

排行榜

  • 用户榜
  • 标签榜
  • 冲榜分奖金

频道

  • 编程语言
  • 前端
  • Java
  • Python
  • 大数据
  • 人工智能
  • 数据结构与算法
  • 嵌入式
  • 其他
  • 运维
  • 网络
  • 服务器
  • 移动开发
  • 后端
  • 开发工具
  • 微软技术
  • 硬件开发
  • 游戏
  • 吐槽问答
  • 测试
  • 小程序
  • 高考
  • 安全
  • 云计算
  • PHP
  • 开放平台
  • 软件工程
  • 设计
  • 职场和发展
  • 区块链
  • 产品/运营
  • 多彩生活
  • HarmonyOS
  • 搜索
  • 设计模式
最新最热精华悬赏待回答 筛选
  • 0

    回答

bert model用k-fold交叉验证,k=10。最终获得的全部测试结果,是应该取F值的平均值吗那这个时候Precision和Recall值应该怎么办?

  • 0

    回答

看到的论文bert都是计算参数量,现在的bert的复杂度怎么计算啊?有没有什么公式什么的?求解惑

  • 1

    回答

报错'tuple' object has no attribute 'size',搜了一圈发现可能是我用gru做decoder,输出的结果为output和hn,再做loss的时候判定没法做,有没有

  • 2

我使用transformers官方tutorial:https://www.tensorflow.org/text/tutorials/transformer 训练了自己的翻译模型,只改了tokeni

qq_33464186
采纳率75%
  • 1

    回答

问题遇到的现象和发生背景 想请问一下,这个transformer跑出来的结果loss为什么是7,感觉效果不太好,想问问大家跑出来是这样吗? 问题相关代码,请勿粘贴截图 运行结果及报错内容 我的解答思路

  • 4

    回答

毕设答辩提的问题的 实在是不懂有没有uu可以回答一下 感激不尽感激不尽

m0_71241183
采纳率0%
  • 1

    回答

在网上找了一个使用transformer预测时间序列的代码: 网址是https://github.com/oliverguhr/transformer-time-series-prediction(

  • 4

    回答

求推荐一个中文文本三分类(正面、中性、负面)的模型,我在网上找了一下,看到的都是二分类。最好是huggingface里面的。

He.ColdThinking
采纳率0%
  • 8

    回答

现在只发现有保存模型个数,和保存模型的方法的设置,还有一个是load_best_model,但这不是保存最好的模型吧。

He.ColdThinking
采纳率0%
  • 1

问题遇到的现象和发生背景 在自己实验室的小样本数据集上,只有一百多张核磁共振图,transunet的iou要比unet低0.05,在transunet上达到0.84,unet可以达到0.9,而且une

m0_56675597
采纳率57.1%
  • 1

    回答

问题遇到的现象和发生背景 如下图在CNN后,得到的应该是一个尺寸很小,通道数很多的特征信息,但是VIT的流程图如下 VIT传入要先切片,设patchszie等于16,N就等于HW/p平方,但是这里我看

回答 m0_56675597
采纳率57.1%
  • 2

    回答

class MultiHeadAttention(nn.Module): """Multi-head attention.""" def __init__(self, key_siz

lbt162020
采纳率68.8%
  • 2

    回答

跑通transformers时无法写入output_dir 在pytorch环境中运行的 the following arguments are required: --output_dir 在pyc

  • 1

#超分辨率 #深度学习 #Transformer #pytorch #IPT超分辨率重建问题,使用的是Transformer框架,但是好像训练不起来,PSNR显示为nan,epoch也显示只有1,请

Vinx1900
采纳率50%
  • 1

我用dx_filter过滤报错,Description:[Transformer run exception]. - For input string: "2021-12-28 10:41:33"请

asdadaddasd
采纳率100%
  • 1

    回答

按照给定的创建过程创建虚拟环境后,训练出现: ImportError: /home/deep/DATA/1-PROJECT/ISTR-2/detectron2/_C.cpython-38-x86_64

  • 1

    回答

raceback (most recent call last): File "tools/train.py", line 187, in <module> main()

张小北哈哈
采纳率0%
  • 1

    回答

AssertionError: The num_classes (80) in Shared2FCBBoxHead of MMDataParallel does not matches the len

张小北哈哈
采纳率0%
  • 1

pytorch的官方中文教程,执行到下面的代码就报错:我进行安装transformer: !pip install transforms 代码部分: import transforms as T d

Tony学长
采纳率60%
  • 1

    回答

图为Deepspeed配置文件。下面是我的代码链接:https://colab.research.google.com/drive/1KfOIIS6BYPMxtEM1YMudblB2JSQKUMy_

  • 0

    回答

激活函数中有三种激活函数,分别是softmax,Gelu, Tanh. Bert based模型结构如图 把每个激活函数层的输出值打印出来之后是下图 请问计算Bert based模型中的

  • 1

    回答

想要看看Transformer中Attention的情况,怎么能够打印出来让我进行查看呀?

  • 1

    回答

在pycham第一次打开h5点了文本方式,就无法更改了,每次打开都是文本形式,要怎么更改呢

  • 2

    回答

原训练代码: python train.py -data_pkl m30k_deen_shr.pkl -log m30k_deen_shr -embs_share_weight -proj_sha

KXS_T
采纳率0%
  • 1

    回答

Informer:Beyond Efficient Transformer for Long Sequence Time-Series Forecasting周昊一的这篇文章,算法跑不明白了啊,尤其是

  • 1

现在有个对象,PrefetchDataset,就是tensorflow_dataset.load之后获得的对象。 通过for item in PrefetchDataset: 可以访问其中内容。但是

  • 1

    回答

学习tensorflow已有一段时间,现在有很多困惑,主要原因是: 我需要训练自己的模型,用自己的图片,现在社区里面都是用现成的数据集做教程,如果用自己的图片制作数据集,该如何做,比如图片大小的调整