- 3
回答
卡尔曼滤波与transformer结合是否可以运用到目标跟踪
- transformer
- 2
- 2025-11-23 10:57
- 5
回答
GLM-Z1-32B-0414和GLM-Z1-Rumination-32B-0414模型输出全部是叹号或乱码。 模型已经采用官方的下载方式重新下载3次,无法解决乱码问题。而且cpu上运行正常,输出正常
- python
- 机器学习
- transformer
- 3
- 2025-09-30 16:21
- 4
回答
您好,可以请教下基于Transformer解决机器翻译任务学习的问题嘛 https://tianqi.csdn.net/68a2f7d2080e555a88da8880.html 我按你的试了,怎么会
- 机器翻译
- transformer
- 3
- 2025-09-03 15:47
- 6
回答
想要使用Transformer-LightGBM来识别环境类型,使用python实现,其中,Transformer 的自注意力机制和特征提取能力能够有效捕捉复杂时序数据和非线性关系,提供强大的动态特征
- python
- transformer
- 18
- 2025-08-10 17:54
- 5
回答
未找到 'multiHeadAttentionLayer'。未找到 'transformerLayer'。未找到 'transformerEncoderLayer'。MATLAB 2024b,这些地方
- transformer
- 78
- 2025-07-20 13:54
- 6
回答
使用脚本加载数据集出现错误,请问怎么解决啊 dataset = load_dataset("./load_script.py", split="train")dataset报错RuntimeError
- python
- pytorch
- transformer
- 337
- 2025-07-17 17:19
- 5
回答
复现transformer论文的时候,好几个文件的import出现问题,不知道问题出在哪里源码链接是https://github.com/tiaoye/Anchor-based-Multi-modal
- 深度学习
- transformer
- python
- 4
- 2025-07-09 10:09
- 4
我在思考一个问题,现在我需要搭建一个网络,利用Vit作为骨干网络,想利用timm直接创建,我想知道的是在网络的反向传播中,backbone会被更新吗,如何验证?transformer_encoders
- transformer
- 神经网络
- 人工智能
- 6
- 2025-06-30 09:09
- 6
回答
使用轻量化 Transformer 特征提取框架与A-LOAM曲率计算融合(如混合特征提取),在KITTI数据集00序列进行测验。有兴趣:500rmb
- c++
- 深度学习
- transformer
- 18
- 2025-06-26 17:10
- 6
回答
在A-LOAM特征提取中融合transformer自注意力机制使其在KITTI数据集00序列的表现更优,或者有其他方法可以改进A-LOAM,愿意参纳(有偿)
- c++
- transformer
- 13
- 2025-06-11 17:01
- 5
修改代码使transformer轻量化自主意力机制特征提取与曲率特征提取融合,使下述代码在KITTI数据集00序列比原始代码更加优化(有偿) // This is an advanced imple
- c++
- transformer
- 5
- 2025-06-10 17:01
- 6
回答
在数据集中随机读取图像并调用transformer模型生成该图像的文字描述语言。
- transformer
- 12
- 2025-06-10 10:43
- 6
回答
原论文是:DiffusionRet:Generative Text-Video Retrieval with Diffusion Model。经过我的复现,其中第二阶段(生成式阶段)结果与论文中实验结
- 计算机视觉
- transformer
- 生成对抗网络
- 9
- 2025-06-10 08:46
- 6
回答
用transformer训练一个中文转英文模型,一般得多少语句对?
- transformer
- 8
- 2025-06-09 15:43
- 7
本人是刚接触深度学习不久,想做一个翻译程序,模型搭好了,词表也做好了,但是这个训练时y的真实值,该怎么转换输入?有人能指点我一下吗😭
- 深度学习
- transformer
- 10
- 2025-06-08 03:11
- 5
代码使用轻量化 Transformer 与曲率计算融合(如混合特征提取)以提升泛化性 // This is an advanced implementation of the algorithm de
- transformer
- 深度学习
- 6
- 2025-06-05 21:06
- 5
最近在尝试用PointTrensformerV2模型跑SemanticKITTI数据集,但是感觉这个过程有点复杂,而且时间也用得比较久。🤔 所以想来问问各位,你们都用了多久时间跑完这个数据集呢?还有
- 深度学习
- transformer
- pytorch
- 22
- 2025-06-04 00:14
- 5
回答
使用pytorch封装的transformer架构,进行人机对话,数据为270000个人机对话,在autodl上跑了6轮,其平均损失已经降到0.5,但是输出的结果基本一样,而且没有逻辑,轮数还是少了吗
- transformer
- pytorch
- python
- 9
- 2025-06-01 10:29
- 5
在ubuntu20.04上实现将A-LOAM特征提取方法“计算局部点云的曲率”替换为Transformer的“自注意力机制”,在KITTI数据集中实现,测试其优劣性,价格私
- transformer
- 计算机视觉
- opencv
- 6
- 2025-05-28 16:30
- 4
回答
求一张曾在csdn上看到的描述自注意力机制中qkv的计算过程的gif动图,非常直观,现在找不到了,十分痛苦
- python
- transformer
- 5
- 2025-05-15 05:00
- 5
回答
本地KTransformer部署了DeepSeek R1,怎么用Dify的自定义模型供应链连接呢?看Transformers介绍说又openai的api,可以直接接入吗?还是需要中间件转发一下?
- transformer
- 46
- 2025-04-25 10:46
- 4
回答
复现论文里的代码。在autodl上创建了一个虚拟环境。下载代码到虚拟环境用模型里的配置文件配置了环境下载了cifar10数据集。用指令运行(myenv) root@autodl-container-c
- pytorch
- transformer
- 图像处理
- 11
- 2025-04-22 22:32
- 4
回答
系统为windows11,LLama-Factory依赖正常安装,torch.cuda.is_available()测试结果正常,进入webui中可以与大模型chat,数据集可预览,但点击开始后报错文
- 人工智能
- llama
- transformer
- 49
- 2025-04-17 21:28
- 3
回答
- 5
回答
这个cuda版本是不是支持不了在阿里云和自己电脑上都能运行,但是自己电脑跑不了服务器这个cuda版本是不是太旧了啊想问一下可以更新驱动吗 llama factory 之前的报错
- pytorch
- 语言模型
- transformer
- 20
- 2025-03-21 23:31
- 5
回答
Transformer输出张量的值全部相同,且start_symbol的值为多少,输出的值就是多少,请问这种情况应该怎么办?输出结果为:tensor([[1, 1, 1, 1, 1, 1, 1, 1,
- python
- 自然语言处理
- transformer
- 9
- 2025-03-18 18:16
- 4
回答
transformer时序预测模型训练,损失函数是mse,训练一段时间后loss变成图片这样,可能是什么原因?
- transformer
- 人工智能
- 深度学习
- 5
- 2025-03-11 16:36
- 3
回答
我在使用TransUnet论文作者提供的代码训练他的数据集后进行预测,预测后的prediction文件里面保存的都是.nii.gz,然后我将这些后缀的文件转换为.png后,显示的图片都是全黑色,怎么办
- transformer
- 图像处理
- pytorch
- 24
- 2025-02-22 13:25
- 3
回答
在TFT(Temporal Fusion Transformer)神经网络结构中,我希望模型在训练和验证时不使用历史目标值,而是直接通过协变量进行预测,因此我设置了以下参数,以避免模型使用历史目标信息
- transformer
- python
- 深度学习
- 6
- 2025-02-15 19:57
- 5
回答
github上openclip的项目中的data文件中,对于args.train_data_upsampling_factors总是报错说不存在该参数,但是我在命令行参数中加这个又报错,有没有做过该项
- 计算机视觉
- 神经网络
- transformer
- 4
- 2025-02-14 17:03