为什么两张显卡同时跑一个TensorFlow程序,速度小于一张显卡?

显卡为750ti、p106-90。

其中p106-90我使用了PCIE 1x转16x的线,是不是转接线的传输速率低下造成两张效果劣于一张的情况?

0

2个回答

两个卡的性能差距本来就很大,起码差2x,而性能好的P106你又用x1的插槽,这些都是不利的因素。
而且tf本身又分任务并行和数据并行,不同的代码,差别很大,当你训练模型设计不当,很容易造成性能低下。
为了发挥多gpu的性能,最好用双xeon平台,因为每个处理器都有自己独立的pcie通道,才不会发生总线的竞争。

0

1x转16x。
首先带宽不会转。会导致显卡不能全速跑。
第二因为1X槽的电源供应不够。显卡不能满负载运作。
第三两个显卡跑这个,因为速度不一致,会导致快的显卡要等慢的显卡。

所以解决方案是建议卖掉750。加钱换另一张P106.
然后买价格在100以上的16X转16X延长线。毕竟现在ATX主板都有2个16X槽。
不要用1X槽去转。1X槽转的情况只适合sata m.2这种转硬盘。或者是挖矿这种异步处理。而且挖矿是强调计算,带宽消耗不高。

0
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
TensorFlow使用GPU训练网络时多块显卡的显存使用问题
使用实验室的服务器网络训练时,发现我只使用单个GPU跑程序,但三块显卡的显存都被占用。查了官网说明,发现这是因为TensorFlow训练时默认占用所有GPU的显存导致的。于是记录一下解决方法。
【keras】一台设备上同时使用多张显卡训练同一个网络模型
Reference:【简述-zzw】Keras同时用多张显卡训练网络【知乎】如何让keras训练深度网络时使用两张显卡?以 tensorflow 为后端,有两种方法可以在多张GPU上运行一个模型:数据并行和设备并行,参考keras中文文档。数据并行:数据并行将目标模型在多个设备上各复制一份,并使用每个设备上的复制品处理整个数据集的不同部分数据。Keras在keras.utils.multi_gpu...
双显卡电脑编写CUDA程序速度慢原因
最近使用了CUDA编写了一个处理大数据的照片,大小为5000*14489; 我的N卡是GTX 980M。 但是在处理时发现计算特别慢,到了运算比较多的地方直接就卡住了,后来检查设置发现要在Navida设置中: 关闭 -- 线程优化 选项。 经过此设置后,程序运行就没有问题了。
Gumbel-softmax
一种变种softmax损失函数
tensorflow限制使用某块显卡
在服务器上运行tensorflow的时候,我们有的程序可能只会使用到一块显卡,但是服务器上有很多显卡,如果一起用主要2个问题。 1.显存可能会都被占满 2.不指定的话总会默认使用第一个。 虽然在程序里面也可以指定使用哪块显卡,但是我觉得不如在命令上加个参数实用。 CUDA_VISIBLE_DEVICES=3,4 python demo.py 上面这个命令就是只给demo.py使用3和4两
tensorflow不能用显卡跑程序的问题
刚入坑机器学习。跑了四五天了,一遍还没跑完。 查进程号 ps -u  uesrid(自己的用户名)  nvidia-smi 查看 显卡状态。发现没有自己的pid  进程号。 然后发现程序里CUDA_VISIBLE_DEVICES =1 python my.py  依旧没有帮助。 后来发现自己安装的tensorflow 版本有问题。卸载之后安装tensorflow-gpu版本 一切正常。 ...
深度学习TensorFlow如何使用多GPU并行模式?
TensorFlow可以用单个GPU,加速深度学习模型的训练过程,但要利用更多的GPU或者机器,需要了解如何并行化地训练深度学习模型。
深度学习中Tensorflow多显卡多人使用问题集
微信公众号 1.多显卡环境在某块显卡被占用时在其他显卡运行返回:Segmentation fault (core dumped) 当我在用编号为1的显卡时,其他人使用其他显卡时就会报这个错。而其他人使用编号0显卡时,我使用编号2显卡也会报错。在网上也可以看到此类问题。 虽然tensorflow可以指定显卡(参见:Using GPUs),如果前端用keras时也就无从指定。 其实有一劳永...
如何使用特定显卡跑tensorflow
如何使用特定显卡跑tensorflow直入正题,有两种比较简单的方法方法一:改变系统变量使得仅目标显卡可见export CUDA_VISIBLE_DEVICES=0 #这里是要使用的GPU编号,正常的话是从0开始然后再运行tensorflow即可方法二:使用tensorflow api添加设备环境with tensorflow.device('/gpu:0'): main tensorflo
keras多显卡训练
使用keras进行训练,默认使用单显卡,即使设置了os.environ['CUDA_VISIBLE_DEVICES']为两张显卡,也只是占满了显存,再设置tf.GPUOptions(allow_growth=True)之后可以清楚看到,只占用了第一张显卡,第二张显卡完全没用。要使用多张显卡,需要按如下步骤: (1)import multi_gpu_model函数:from keras.utils ...
Tensorflow指定显卡GPU运行
Tensorflow指定显卡GPU运行   有些工作站配备了不止一块显卡,比如4路泰坦。TensorFlow会默认使用第0块GPU,而以TensorFlow为Backend的Keras会默认使用全部GPU资源。有时候有多个人需要跑实验,如果一个人占用了全部GPU,其他人就不能跑了。因此需要能够指定使用特定的GPU。   具体地,只需要在主代码的开头插入如下代码,即可指定使用第3块(从0开始计数...
SLI导致双显卡被TensorFlow同时占用问题(Windows下)
最近学习TensorFlow,被一些不是bug的问题折腾的头晕脑胀,借此写一下解决方法。本人是在win10下使用TensorFlow的,所以ubuntu下的绕行吧,不会出现这些问题。(此文有些地方我重新整理了一遍,放在了相约机器人公众号上,大家可以参见链接) 众所周知,TensorFlow在运行时,会抢占所有检测到的GPU的显存,这种做法褒贬不一吧,只能说,但怎么单独设置使用哪几块显卡呢,唯一的...
Tensorflow指定使用哪个GPU
在多卡机器上训练的时候,经常会需要指定tensorflow程序跑在固定的GPU上,于是就有了如下手段:export CUDA_VISIBLE_DEVICES=2,3指定我们的程序只能看到GPU中序号为2与3的设备,于是启动后就可以看到: 我们的训练程序进程号是27088,可以看到它只跑在了2与3显卡上。
使用tensorflow的时候一定要限制使用某块显卡
1. jupyter notebook/pycharm 运行代码的时候 此时在代码import的时候就开始添加如下代码: import os os.environ['CUDA_DEVICE_ORDER']='PCI_BUS_ID' os.environ['CUDA_VISIBLE_DEVICES']='GPU_ID' 其中,GPU_ID就是你想用的显卡的型号序号 2. linux/windows...
【MXNet Gluon】模型训练使用多块显卡加速(multi-gpu)
使用单块显卡时的代码: devices = mx.gpu(0) data = mx.nd.array(batch_data).as_in_context(devices) label = mx.nd.array(batch_label).as_in_context(devices) # 更新生成器G with autograd.record(): ou...
GPU跑TensorFlow的各种显卡下的电脑配置(1080ti)
配置需求: 1. 操作系统:win10 64位 GPU:英伟达GeForce GTX 1080 Ti cuda9.0版本 cudnn7 anaconda3.5 tensorflow-gpu 1.7.0
第二期 Tensorflow 基准测试 《显卡就是开发板》
深度神经网络相关的blog里总会提示我们使用GPU训练网络是必须的,但没有一个数值的概念,我们真的不好评判GPU在训练网络方面到底比CPU快多少,这一期我们就利用上一期搭建的实验环境跑个小Demo实测一下GPU的性能。 Benchmarking State-of-the-Art Deep Learning Software Tools http://dlbench.comp.hkbu.edu.hk/
tensorflow/keras指定运行时显卡及限制GPU用量
tensorflow和基于tensorflow的keras运行时会自动占用所有gpu,为了限制程序的gpu占用量,可以指定程序只使用某一个gpu,参考: https://blog.csdn.net/A632189007/article/details/77978058 其中可以在程序开头位置加入语句 import os os.environ["CUDA_VISIBLE_DEVICES"] ...
TensorFlow学习笔记[二]——在训练模型时如何指定具体哪一(多)块GPU显卡进行训练任务
        在用tensorflow深度学习模型训练时,假设我们在训练之前没有指定具体用哪一块GPU进行训练,则默认的是选用第0块GPU来训练我们的模型。如果你的电脑有多块GPU的话,其它几块GPU的也会显示被占用。         有些时候,我们希望可以通过自己指定一块或者几块GPU来训练我们的模型,而不是用这种系统默认的方法。接下来将介绍三种指定GPU训练的方法。         我们...
利用NVIDIA显卡(CUDA)跑神经网络
一、背景 最近在看生成对抗网络相关的论文,需要跑神经网络的模型,但是用笔记本跑的比较慢,所以想尝试一下NVIDIA的显卡。我台式机上的显卡是1050Ti,基本配置为win10+keras+tensorflow-gpu。在配置的过程中遇到了一点问题,于是记录下来,希望能给其他遇到类似问题的小伙伴一点帮助。我这里利用了keras实现的GANgithub源码, 这个源码包含了GAN及...
Caffe tensorflow和keras跑动程序时限制GPU所占显存和强制使用cpu
应用场景:       在实验室或者公司时,一般会遇到服务器紧张的情况。在这种情况下,可以通过限制GPU所占显存来使得一台服务器可以同时跑几个模型,当然,土豪实验室或者公司不用担心这个问题。 由于暂时只接触了Caffe,Tensorflow和keras,现只提供这三种深度学习框架的控制方法。 解决办法:       对于caffe而言,默认不是占满GPU全部的显存,而是通过网络设置batc...
Tensorflow实现多GPU并行
Tebsorflow开源实现多GPU训练cifar10数据集:cifar10_multi_gpu_train.py Tensorflow开源实现cifar10神经网络:cifar10.py Tensorflow中的并行分为模型并行和数据并行。模型并行需要根据不同模型设计不同的并行方式,其主要原理是将模型中不同计算节点放在不同硬件资源上运算。比较通用且能简便地实现大规模并行的方式是数据并行,同时...
win8(显卡为AMD)无GPU安装深度学习平台TensorFlow教程
O、简单介绍一下没有GPU的机子为什么可以安装TensorFlow?   因为TensorFlow的运行是需要GPU的,但是没有GPU,却有AMD显卡的机子运行需要用到本机的CPU去运算,所以简单入门级 级别的尝试是可以的,简单处理一些数据是OK的,但是用CPU运算的话,运算时间会大打折扣。 一、安装要求介绍   1.(最主要的所有软件版本必须全是64位的,因为TensorFlow没有32...
如何使用特定显卡跑pyTorch
如何使用特定显卡跑pyTorch 方法一:改变系统变量使得仅目标显卡可见 export CUDA_VISIBLE_DEVICES=0 #这里是要使用的GPU编号,正常的话是从0开始 然后再运行pyTorch即可 方法二:使用torch.cuda接口 #在生成网络对象之前: torch.cuda.set_device(0)...
让keras训练深度网络时使用多个显卡
1、使用nvidia-smi pmon 查看linux系统的gpu情况,如下: 显然是2张显卡,如何让它们都工作呢 2、keras提供了keras.utils import multi_gpu_model使用多个显卡的功能: 在原来的model基础上使用multi_gpu_model函数指定一下gpu个数即可: model = multi_gpu_m...
使用GPU加速TensorFlow机器学习
    在Thinkpad X260上运行一个CNN图像分类的样例程序时,发现速度特别慢,迭代一轮要将近5分钟,那么迭代200轮需要1000分钟,16个小时!在看到TensorFlow相关的书籍时,总是提到GPU加速,对于这样的问题,应该能派上用场吧。TensorFlow目前只支持NVIDIA显卡,笔者手头没有,阿里云上有GPU计算型ECS,便“按量付费”买了一台,开始了一场“坎坷小贵”的验证之旅...
用外置显卡跑深度学习的一些注意事项
用外置显卡跑深度学习的一些注意事项   华硕的显卡坞并不是说只能在华硕电脑上用,只要有雷电3接口的一般是可以用的。这个我专门问了客服的。   搜外置显卡弄深度学习建议用google搜,搜出的结果比百度多多了。   搜到的结果大多数macbook通过雷电口外接显卡跑深度学习的。   他们建议接外置显示器,原因如下: http://www.rethink.fun/index.php/...
【Python】TensorFlow从入门到入土!
写这篇博客的时候,本人心态已经崩了,为了搭建可运行的环境,你懂得…… import tensorflow as tf import numpy as np import input_data import matplotlib.pyplot as plt import tqdm import time time1=time.time() mnist = input_data.read_da...
入坑tensorflow-gpu的一些总结
入坑背景 前期在kaggle上也做过谷歌用户价值预测分析的赛题,可是自我感觉调参的水平太菜,基本上靠猜。 这次为了完成设计实现图片分类器的作业,决定尝试使用tensorflow框架完成作业。 运行配置 win10 + i7-8700 + 英伟达GTX-1070 + 16G内存 参考资料 源自B站的【Python 深度机器学习】TensorFlow 基础,确实是良心视频,教得很仔细; 源自...
Tensorflow实战之多GPU并行程序的实现
import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data import mnist_inference import numpy as np #模型保存路径 model_save_path = 'C:\\Users\\Administrator\\Desktop\\LZC\\model_sa...
tensorflow下设置使用某一块GPU、多GPU、CPU的情况
你要的答案或许都在这里:小鹏的博客目录 tensorflow下设置使用某一块GPU(从0开始编号): import os os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID" os.environ["CUDA_VISIBLE_DEVICES"] = "1" 多GPU: num_gpus = 4 for i in range(nu
N卡双显卡电脑装ubuntu15.04并配置Anaconda+Tensorflow+cuda+cuDNN的深度学习环境
1.序 这篇文章的目的是Tensorflow环境配置的经验和流程总结,涉及3个部分: 1)装ubuntu并配置显卡驱动; 2)装CUDA+cuDNN库并解决cuda与显卡驱动冲突问题 3)以常用的科学计算python包Anaconda为基础,Tensorflow放于其子环境中,并配置好编程界面jupyter或spyder 2. Tensorflow简介和我的笔记本硬件配置 目前
第十一期 使用 Tensorflow 实现物体检测 《显卡就是开发板》
1.物体识别效果演示 图片选自 Andrew Carter 的博客 Annotating Large Datasets with the TensorFlow Object Detection API 2.物体识别概述 关于 Object Dection 理论说起来太复杂了,可以自行参考 CS231n 的教程,或者通过这篇文章 A Brief History of CNNs in...
caffe2,tensorflow,pytorch中指定固定显卡训练
有一台服务器,服务器上有多块GPU可以供使用,此时只希望使用某几块GPU。 一般来说,深度学习的代码中只会指出GPU的数量,却没有指出使用哪几块,在初次接触的时候很是让人头疼,搜索都没有相关的解决办法。 解决方案:可以使用环境变量CUDA_VISIBLE_DEVICES来解决问题(让机器只可见某几块GPU,然后指定GPU数量)。 方法一:临时修改环境变量(随改随用,一次有效) expo...
【Ubuntu-Tensorflow】GPU设置及显存资源分配
最近笔者在做GPU显存资源分配的研究,发现在tf中gpu一些实用的方法和接口,共享出来,供大家参考学习,如有问题,欢迎留言讨论。
Pytorch 多块GPU的使用
注:本文针对单个服务器上多块GPU的使用,不是多服务器多GPU的使用。 在一些实验中,由于Batch_size的限制或者希望提高训练速度等原因,我们需要使用多块GPU。本文针对Pytorch中多块GPU的使用进行说明。 1. 设置需要使用的GPU编号 import os os.environ["CUDA_VISIBLE_DEVICES"] = "0,4" ids = [0,1] 比如我...
搭建低成本的机器学习系统,GTX950/960足矣
最近搭建自己的机器学习平台跑一些小实验,看网上(知乎)各种大神的回复一定要上Tesla架构的K40,K80之流的,深感知乎的装13气氛。 其实当前搭建机器学习平台,可能有9成是要用来跑Tensorflow,所以要想成本低,我们从各个方面满足Tensorflow的底线就可以了。 要跑Tensorflow,一个重要门槛就是显卡的Compute Capability。Tensorflow官方要求的是
小白搭建TensorFlow_GPU,你必须要先明白这些东西,一定帮得到你
一、 小白搭建环境感觉比深度学习本身还吃力,因为没搞清楚下面这些概念,所以查很多资料都安装不成功。        1、什么是GPU?为什么装GPU版?你电脑上有GPU吗?有的话在电脑上哪个位置?        GPU是图形处理器;GPU更适合跑深度学习代码;GPU通常存在于你的显卡里,故在高级属性中的设备管理器查看你电脑上的显卡型号,因为深度学习需要一块不错的显卡(如配有SSD就更好了),所以...
win10下tensorflow库gpu运行环境配置实操
TensorFlow NVIDIA显卡驱动 CUDA套件 cuDNN驱动 安装 测试近日,在github上闲逛时发现了一个非常有趣的一个实验,地址如下DeepLearningFlappyBird,见文知意,使用强化学习来教会鸟儿如何通关尽可能多的关卡。当然,既然是游戏那还是跑起来看一下直观。所以,把代码clone下来后便开启了如下的摸索之旅。TensorFlow对于window系统,TensorFl
win7集成显卡安装tensorflow1.0傻瓜步骤
2017年3月4日成功安装记!!!   系统环境:win7 64位  集成显卡   (先在破电脑上试试……) 1.用Anaconda包一次性安装python的常用库,下载地址: https://www.continuum.io/downloads#windows 点击下载64-bit INSTALLER,如图: 注意,tensorflow目前在window