- 1
回答
这是什么软件?,如何搭建开发环境?需要什么硬件支持,希望能够入门。
- 自然语言处理
- pytorch
- transformer
- 1
- 2024-09-28 12:45
- 1
Point Transformer V3跑实验报错 下图为运行开始命令图片:
- 人工智能
- 深度学习
- transformer
- 9
- 2024-09-18 16:07
- 1
回答
Transformer输入部分,直接将位置编码信息加到词向量上,不会破坏词向量本身的信息吗?
- transformer
- 3
- 2024-09-04 11:11
- 1
回答
各位,我想使用sam的image encoder以及它的权重,将其应用到别的地方,但是我将网络插入后,一直报错显存不够,我是24g的显存,到底需要多少显存才能运行呢
- transformer
- pytorch
- 图像处理
- 4
- 2024-09-01 22:29
- 1
回答
我下载了一个模型本地部署,用metagpt跑,我在用线上模型的话直接写的API key和base URL,那我本地模型的这两个值在哪找呀
- 语言模型
- transformer
- AIGC
- 8
- 2024-08-14 20:25
- 3
回答
不加偏置的nn.linear与nn.parammer能否认为一样,有什么区别
- python
- 神经网络
- transformer
- 8
- 2024-07-11 23:51
- 24
回答
寻求帮助,研究微软小模型Phi-3-mini与llama 3 7b比较,辅助做PPT和调研。本周末出结果。有偿!感谢。 帮我做调研和PPT实际部署并演示花些时间帮我讲懂技术细节基于小模型的应用场景进行
- ¥200
- 人工智能
- transformer
- 46
- 2024-07-11 19:13
- 28
回答
我有一些各种材料组成的数组形如["WO3", "ZnSe", "WO3", "GaSb", "Fe2O3"],每个材料前后的材料会影响一个实验值,是一个材料组合的有序序列。想根据实验值作为评判依据,得
- ¥50
- transformer
- 深度学习
- 人工智能
- 23
- 2024-07-10 11:12
- 25
回答
问题: 模型在1个epoch时几乎达到收敛 PS:我想进行一个简单的文本摘要生成任务,数据集为哈工大的新闻数据集,我想利用Transformer的解码器来完成该任务。我尝试了两种方法,两种方法都将 t
- ¥100
- transformer
- 深度学习
- 人工智能
- 30
- 2024-07-05 14:02
- 4
回答
在windows系统下,训练vqdiffusion模型,把分布式训练的nccl改成了gloo,训练的数据可以均衡分布到每个gpu,但是看性能显示,只有一个gpu的利用率高,其他的基本没有利用率,也就是
- python
- transformer
- 迁移学习
- 13
- 2024-07-04 15:35
- 2
回答
2024,今年你多大了?你失业了吗?失业多久了?今年脱单了嘛?买车了吗?买房了吗?
- python
- opencv
- transformer
- 4
- 2024-07-04 12:32
- 2
回答
作为本科生的我遇到了一个问题,对swin-transformer大模型进行视觉提示微调,我是在预训练项目中微调,不知道该如何下手
- transformer
- 6
- 2024-07-01 11:27
- 2
在学习抱抱脸部署的时候测试的时候出现这个错误 求解答 以上是错误和相关的库 python版本是3.9
- python
- pytorch
- transformer
- 94
- 2024-06-30 21:10
- 2
回答
- 2
回答
github上facebook的dit项目,用项目自带的经简单改动的train脚本训练的模型,在sample时,可以导入但是在扩散时报错index out of range in self。寻求
- transformer
- 人工智能
- 图像处理
- 6
- 2024-06-27 11:36
- 2
回答
服务器的linux环境下对 swin-transformer进行预训练,报错了 这是啥原因呢?
- transformer
- linux
- 服务器
- 8
- 2024-06-19 15:50
- 1
回答
使用BERT模型解决NLP分类问题时,发现以下情况容易分类错误: (其他文本),一号开关分闸,(其他文本),一号开关合闸,(其他文本) 总体而言应当认为该文本是一个合闸动作,因为合闸在后,但是有会被识
- 自然语言处理
- bert
- transformer
- 7
- 2024-06-18 22:18
- 3
回答
datastage transformer 筛选条件设置后为什么会出现数据漏取问题
- transformer
- 1
- 2024-06-13 13:35
- 1
回答
生产业务场景繁杂,怎么使AI融入生产业务流程?就目前看到和使用的场景大多是语义分析,提取,统计,整合,展示。更复杂和更长的业务链路怎么接入?有没有可能有一套整体的计算路径或者标准化业务分析工具?
- transformer
- 7
- 2024-05-30 23:49
- 4
回答
DETR变体太多了,不知道检测红外小目标用什么比较好,希望能推荐一下。
- python
- pytorch
- transformer
- 22
- 2024-05-24 20:49
- 4
使用SFTTrainer,qLoRA 量化微调huggingface上面的大模型,包括mistral,gemma等,微调之后,使用model.save_pretrained()保存在本地。保存的是.s
- python
- pytorch
- transformer
- 106
- 2024-05-24 18:32
- 19
回答
python中的transformers是可以下载下来并且正常import的,但是却没有办法使用这里是一个最简单的代码 from transformers import pipeline class
- ¥15
- transformer
- python
- 1.1k
- 2024-05-11 22:27
- 2
回答
conda中cuda11.4需要11.6咋办?服务器也不能改cuda版本?或者怎么能在服务器下弄个3090显卡有啥好的办法吗#cuda配置 #LLM
- pytorch
- transformer
- 人工智能
- 32
- 2024-05-10 22:23
- 5
回答
大模型微调,Running Evaluation过程中出现的错误 LLaMA-Factory为微调工具,相关参数设置如下: CUDA_VISIBLE_DEVICES=0 /opt/llama_fact
- python
- 语言模型
- transformer
- 23
- 2024-05-01 21:14
- 7
这是我的模型定义: 在训练时发生如下错误:RuntimeError: Given groups=1, weight of size [8, 8, 3], expected input[1, 1, 8]
- python
- pytorch
- transformer
- 1
- 2024-04-28 17:51
- 13
回答
https://github.com/jadore801120/attention-is-all-you-need-pytorch这是 Attention is all you need 的代码,请问
- ¥15
- python
- transformer
- pytorch
- 11
- 2024-04-28 17:29
- 7
回答
使用swintransformer进行图像分类,为什么loss会出现这种情况
- 人工智能
- 机器学习
- transformer
- 10
- 2024-04-26 22:50
- 5
我刚学习 transformers,在Windows 上 安装了pytorch 和transformers的4.26.1 版本,测试 from transformers import DetrIma
- 目标检测
- pytorch
- transformer
- 5
- 2024-04-26 15:17
- 6
回答
下面是原代码。PyTorch进行深度学习任务解决VRP问题。
- python
- pytorch
- transformer
- 8
- 2024-04-17 16:19
- 26
回答
如标题,我想达到能够自行训练模型的一个程度,需要学多久(已有Python基础,但未接触其他),本科大一,培养方案里有人工智能的内容但在大三大四,但自己目前想做项目
- ¥15
- python
- pytorch
- transformer
- 36
- 2024-04-11 00:25