最新最热精华悬赏待回答 筛选
  • 3

    回答

卡尔曼滤波与transformer结合是否可以运用到目标跟踪

  • 5

    回答

GLM-Z1-32B-0414和GLM-Z1-Rumination-32B-0414模型输出全部是叹号或乱码。 模型已经采用官方的下载方式重新下载3次,无法解决乱码问题。而且cpu上运行正常,输出正常

  • 4

    回答

您好,可以请教下基于Transformer解决机器翻译任务学习的问题嘛 https://tianqi.csdn.net/68a2f7d2080e555a88da8880.html 我按你的试了,怎么会

  • 6

    回答

想要使用Transformer-LightGBM来识别环境类型,使用python实现,其中,Transformer 的自注意力机制和特征提取能力能够有效捕捉复杂时序数据和非线性关系,提供强大的动态特征

  • 5

    回答

未找到 'multiHeadAttentionLayer'。未找到 'transformerLayer'。未找到 'transformerEncoderLayer'。MATLAB 2024b,这些地方

  • 6

    回答

使用脚本加载数据集出现错误,请问怎么解决啊 dataset = load_dataset("./load_script.py", split="train")dataset报错RuntimeError

  • 5

    回答

复现transformer论文的时候,好几个文件的import出现问题,不知道问题出在哪里源码链接是https://github.com/tiaoye/Anchor-based-Multi-modal

回答 Bronyaer
采纳率70.6%
  • 4

我在思考一个问题,现在我需要搭建一个网络,利用Vit作为骨干网络,想利用timm直接创建,我想知道的是在网络的反向传播中,backbone会被更新吗,如何验证?transformer_encoders

XX的杰子
采纳率69.2%
  • 6

    回答

使用轻量化 Transformer 特征提取框架与A-LOAM曲率计算融合(如混合特征提取),在KITTI数据集00序列进行测验。有兴趣:500rmb

回答 M1126855
采纳率37.5%
  • 6

    回答

在A-LOAM特征提取中融合transformer自注意力机制使其在KITTI数据集00序列的表现更优,或者有其他方法可以改进A-LOAM,愿意参纳(有偿)

回答 M1126855
采纳率37.5%
  • 5

修改代码使transformer轻量化自主意力机制特征提取与曲率特征提取融合,使下述代码在KITTI数据集00序列比原始代码更加优化(有偿) // This is an advanced imple

M1126855
采纳率37.5%
  • 6

    回答

在数据集中随机读取图像并调用transformer模型生成该图像的文字描述语言。

  • 6

    回答

原论文是:DiffusionRet:Generative Text-Video Retrieval with Diffusion Model。经过我的复现,其中第二阶段(生成式阶段)结果与论文中实验结

  • 6

    回答

用transformer训练一个中文转英文模型,一般得多少语句对?

2501_92214393
采纳率16.7%
  • 7

本人是刚接触深度学习不久,想做一个翻译程序,模型搭好了,词表也做好了,但是这个训练时y的真实值,该怎么转换输入?有人能指点我一下吗😭

2501_92214393
采纳率16.7%
  • 5

代码使用轻量化 Transformer 与曲率计算融合(如混合特征提取)以提升泛化性 // This is an advanced implementation of the algorithm de

M1126855
采纳率37.5%
  • 5

最近在尝试用PointTrensformerV2模型跑SemanticKITTI数据集,但是感觉这个过程有点复杂,而且时间也用得比较久。🤔 所以想来问问各位,你们都用了多久时间跑完这个数据集呢?还有

PpacBbhhhhh666
采纳率100%
  • 5

    回答

使用pytorch封装的transformer架构,进行人机对话,数据为270000个人机对话,在autodl上跑了6轮,其平均损失已经降到0.5,但是输出的结果基本一样,而且没有逻辑,轮数还是少了吗

  • 5

在ubuntu20.04上实现将A-LOAM特征提取方法“计算局部点云的曲率”替换为Transformer的“自注意力机制”,在KITTI数据集中实现,测试其优劣性,价格私

M1126855
采纳率37.5%
  • 4

    回答

求一张曾在csdn上看到的描述自注意力机制中qkv的计算过程的gif动图,非常直观,现在找不到了,十分痛苦

  • 5

    回答

本地KTransformer部署了DeepSeek R1,怎么用Dify的自定义模型供应链连接呢?看Transformers介绍说又openai的api,可以直接接入吗?还是需要中间件转发一下?

  • 4

    回答

复现论文里的代码。在autodl上创建了一个虚拟环境。下载代码到虚拟环境用模型里的配置文件配置了环境下载了cifar10数据集。用指令运行(myenv) root@autodl-container-c

  • 4

    回答

系统为windows11,LLama-Factory依赖正常安装,torch.cuda.is_available()测试结果正常,进入webui中可以与大模型chat,数据集可预览,但点击开始后报错文

回答 孳竹
采纳率0%
  • 3

    回答

需求:融合卷积transformer模型的完整算法、明确输入输出是什么

  • 5

    回答

这个cuda版本是不是支持不了在阿里云和自己电脑上都能运行,但是自己电脑跑不了服务器这个cuda版本是不是太旧了啊想问一下可以更新驱动吗 llama factory 之前的报错

  • 5

    回答

Transformer输出张量的值全部相同,且start_symbol的值为多少,输出的值就是多少,请问这种情况应该怎么办?输出结果为:tensor([[1, 1, 1, 1, 1, 1, 1, 1,

  • 4

    回答

transformer时序预测模型训练,损失函数是mse,训练一段时间后loss变成图片这样,可能是什么原因?

  • 3

    回答

我在使用TransUnet论文作者提供的代码训练他的数据集后进行预测,预测后的prediction文件里面保存的都是.nii.gz,然后我将这些后缀的文件转换为.png后,显示的图片都是全黑色,怎么办

  • 3

    回答

在TFT(Temporal Fusion Transformer)神经网络结构中,我希望模型在训练和验证时不使用历史目标值,而是直接通过协变量进行预测,因此我设置了以下参数,以避免模型使用历史目标信息

回答 Zacci
采纳率0%
  • 5

    回答

github上openclip的项目中的data文件中,对于args.train_data_upsampling_factors总是报错说不存在该参数,但是我在命令行参数中加这个又报错,有没有做过该项