2 chongqiong1460 chongqiong1460 于 2017.01.04 22:28 提问

不一样的显卡,在caffe中跑相同的网络,配置文件、参数、数据集完全相同,为什么训练结果相差特别多? 50C

gtx1070和gtx660,两个显卡,分别在caffe中跑相同的网络,配置文件、参数、数据集完全相同,为什么训练结果相差特别多,1070的训练损失特大,准确率与瞎猜差不多,反而是660的老显卡准确率0.9以上,请问有这是正常情况吗,难道根据显卡的配置不同,网络的参数调节也要有很大的不同吗?

6个回答

welan123123
welan123123   2017.01.05 10:08

不同配置的电脑使用caffe,结果肯定是不一样的,我猜你这两台电脑不仅仅是显卡不一样吧

zhaoyangbei
zhaoyangbei 回复Daniel2333: 请问你搞清楚哪些因素会不一样了吗?
大约一年之前 回复
weixin_35653315
weixin_35653315 请问在训练的网络和参数配置都一样的前提下, 有哪些因素会让它们的结果不一样呢?
一年多之前 回复
zhaoyangbei
zhaoyangbei   2017.06.09 16:48

请问你搞清楚怎么回事了吗?

shwan_ma
shwan_ma 请问你搞清楚为什么了吗,不同显卡训练出来的结果差好多?
9 个月之前 回复
abc6991347
abc6991347   2017.09.22 03:20

我也是一样,在笔记本GTX850m上还有不错的识别率。 后来花血本买了个GTX1080TI,结果训练差得太多了,完全乱识别。 LOST值都在5以上

shwan_ma
shwan_ma 请问你搞清楚为什么了吗,不同显卡训练出来的结果差好多?
9 个月之前 回复
shwan_ma
shwan_ma   2017.10.18 20:43

我是tensorflow的,在1080上还好,在Titan上训练差好多

qq_19492431
qq_19492431   2017.11.01 15:35

你好 我的gtx660为什么不支持gpu加速? ubuntu16.4

sinat_35134348
sinat_35134348   2017.01.05 12:55

看显卡的性能主要参照以下几个指标,显存位宽,显存容量,流处理器单元,频率,还有散热情况等条件 。

第一,显存位宽,显存位宽是显存在一个时钟周期, 内所能传送数据的位数。位数越大则相同频率下所能传输的数据量越。A卡和N卡的中端显卡一般都至少是128位以上的,好的显卡一般是192位和256位的。
第二,显存容量,显存容量对显卡的性能也比较重要,因为在高分辨率高抗锯齿的情况下可能会出现显存不足的情况。建议购买1g及其以上的大容量。
第三,流处理器单元,流处理器的数量的多少已经成为了决定显卡性能高低的一个很重要的指标,流处理器单元越多,显卡性能越强。
第四,频率,显卡的核心频率是指显示核心的工作频率,其工作频率在一定程度上可以反映出显示核心的性能。
第五。散热情况,散热的好坏也是一个重要指标,中低端显卡一般是风冷,高端显卡是水冷,水冷更有利于显卡散热,提高工作效率

Csdn user default icon
上传中...
上传图片
插入图片
准确详细的回答,更有利于被提问者采纳,从而获得C币。复制、灌水、广告等回答会被删除,是时候展现真正的技术了!
其他相关推荐
caffe训练模型后,使用模型测试的分类结果全部都是相同的
从训练的输出可以看出,accuracy非常低,loss一直不收敛,所以使用这个训练出来的模型的分类结果都一样,因为训练过程中,机器根本没有学到东西~~ 两种原因: 1、网络结构参数不对或者缺少   2、数据量太少 我使用了相同的网络去训练不同量的数据,10000+数据迭代10000次的效果好了很多,5000的数据量迭代4000次就没学到东西~
caffe实现Alexnet网络结构(利用自己的数据)
1.新建测试集和校验集的txt文档 文档内容为:路径+标签 2.修改网络参数,输入数据格式改为图片格式(默认格式为lmdb) 3.执行脚本文件,开始运行 备注:如果使用均值文件,需要输入图片的大小为256*256 1.新建测试集和校验集的txt文档 文档内容为:路径+标签 1.1在data/目录下,新建mydata文件夹; 1.2在mydata文件夹中新建两个文件夹trai
在caffe上跑自己的数据
本文介绍如何使用caffe对自己的图像数据进行分类。 1 数据库准备 由于图片数据收集比较费时,为了简单说明,我用了两类,dog和bird,每种约300张。train200张,val100张。
深度学习Caffe实战笔记(3)用AlexNet跑自己的数据
上一篇博客介绍了如何在caffe框架平台下,用LeNet网络训练车牌识别数据,今天介绍用AlexNet跑自己的数据,同样基于windows平台下,会比基于Ubuntu平台下麻烦一些,特别是后面的Siamese网络,说起Siamese网络真是一把辛酸一把泪啊,先让我哭一会,,,,,哭了5分钟,算了,Siamese网络的苦水等以后再倒吧,言归正传,开始train。 在caffe平台下,实现用Alexn
FCN训练不收敛的原因分析和最详细的FCN训练与测试自己的数据程序配置
本文分析了FCN训练不收敛的原因并给出了解决方案。 同时给出了详尽的完善的FCN训练与测试程序配置,欢迎阅读与分享。
Caffe训练自己的数据
1、准备训练数据首先为训练数据和测试数据,新建两个文件夹,名称任意,存放数据: trian(存放训练数据) val(存放测试数据) 在tiran和val中,放入统一尺寸的图片,如320x320。保证这些图像的名称,不包含奇怪的字符。最好是数字或字母组成的名称。2、新建train.txt和v
Caffe 跑自己的数据和训练
本文主要是参考了文末资料中的步骤,自己重新跑了一遍,大部分和上述资料中的相同,有些补充和改动.Caffe提供mnist, cifar10, ImageNet1000等数据库,对于mnist和cifar10,数据集的准备是通过调用代码自己下载并完成,而ImageNet10的数据需要自己下载.我们可以参考ImageNet10的处理方式来生成caffe需要的lmdb/leveldb数据格式,然后进行tra
170719 Keras重复运行结果不一致问题
Github-2743 Github-2479 不同版本的keras,对同样的代码,得到不同结果的原因总结 用深度学习每次得到的结果都不一样,怎么办? 指定随机数+Shuffle=False方法(认为模型结果的不确定性与采样训练时的随机种子有关) import numpy as np np.random.seed(1337) 万能重启大法(找不到原因,重启试试) Th
Caffe学习记录:Cifar-10 自定义网络训练记录
模型1 层类别 具体信息 conv1 output: 32, kernel: 5, stride: 1 pad: 2 pool1 pool: MAX, kernel: 3, stride: 2 relu1 Sigmoid norm1 LRN ip1 200 ip2 10 实验结果: Iteration 60000, loss = 0.801631
tensorflow保持每次训练结果一致
在用tensorflow构建神经网络的时候,有很多随机的因素,比如参数的随机初始化: 正态分布随机变量tf.random_normal([m,n]),均匀分布的随机变量tf.random_uniform([m,n]),还有在从tfrecord读取数据时,也会随机打乱数据。 那么由于这些随机的操作,即使是在输入数据完全一样的情况下,每次训练的结果也不一样,那么如果想要使得每次训练的结果一致,应该怎...