coolsworder 2021-09-27 14:46 采纳率: 0%
浏览 12

nvidiagpu编程中,一个线程块包含多少个线程性能最优?这个是怎么确定的?

书中都提到,线程块有一个最佳的线程个数,但都没提到怎么确定这个最佳值,求指导

  • 写回答

1条回答 默认 最新

  • 於黾 2021-09-27 14:51
    关注

    基本上

    线程数量=cpu数量*核心数量*2
    

    可以保证cpu利用率拉满,但不产生排队
    当然这只是理论上的,实际上根据系统当前繁忙情况而定,除非整个系统只运行你的一个程序
    -=-=-=-=-=-
    cpu数量 x 核心数量应该好理解吧,每个核心都跑一个线程,即不会有核心闲着,也不要太多
    为什么x2呢,因为intel芯片有虚拟线程技术,可以一个计算周期运行两个单独的任务。不过实际执行效率并不能真的达到2倍,差不多1.5倍左右吧。

    评论

报告相同问题?

问题事件

  • 创建了问题 9月27日

悬赏问题

  • ¥50 如何用脚本实现输入法的热键设置
  • ¥20 我想使用一些网络协议或者部分协议也行,主要想实现类似于traceroute的一定步长内的路由拓扑功能
  • ¥30 深度学习,前后端连接
  • ¥15 孟德尔随机化结果不一致
  • ¥15 apm2.8飞控罗盘bad health,加速度计校准失败
  • ¥15 求解O-S方程的特征值问题给出边界层布拉休斯平行流的中性曲线
  • ¥15 谁有desed数据集呀
  • ¥20 手写数字识别运行c仿真时,程序报错错误代码sim211-100
  • ¥15 关于#hadoop#的问题
  • ¥15 (标签-Python|关键词-socket)