实力的历史 2016-10-24 15:22 采纳率: 0%
浏览 1560
已结题

请教Linux下如何模拟微秒级网络延时

因项目需要,要在linux下模拟微秒级网络延时,尝试使用系统自带的TC(Traffic Control),无奈只能到1ms的级别,想请教各路大神,如何才能模拟1-999微秒的网络延迟。。。。。。

  • 写回答

4条回答 默认 最新

  • threenewbee 2016-10-24 15:39
    关注

    内嵌汇编调用RDTSC指令,可以得到cpu时钟计数器,在知道cpu频率的情况下,配合死循环,可以用它精确延迟精确到纳秒级别。

    评论

报告相同问题?

悬赏问题

  • ¥20 有关区间dp的问题求解
  • ¥15 多电路系统共用电源的串扰问题
  • ¥15 slam rangenet++配置
  • ¥15 有没有研究水声通信方面的帮我改俩matlab代码
  • ¥15 对于相关问题的求解与代码
  • ¥15 ubuntu子系统密码忘记
  • ¥15 信号傅里叶变换在matlab上遇到的小问题请求帮助
  • ¥15 保护模式-系统加载-段寄存器
  • ¥15 电脑桌面设定一个区域禁止鼠标操作
  • ¥15 求NPF226060磁芯的详细资料