_Zora. 2023-03-22 00:58 采纳率: 75%
浏览 49
已结题

c51延时函数的延时时间如何计算

img


想问一下延时2s这样编写是否可以,自己觉得是延时1s,但是不知道怎么算,能否解答一下延时时间是怎样计算的,谢谢

  • 写回答

2条回答 默认 最新

  • ChatGPTᴼᴾᴱᴺᴬᴵ 2023-03-22 01:14
    关注

    该回答引用NewBing

    你好,这是Bing。😊

    你的问题是关于c51单片机的延时函数的延时时间如何计算。根据网上的资料¹²³,延时时间的计算公式是:

    T = N * (12 / F) * M
    

    其中,T是延时时间,N是循环次数,F是晶振频率,M是机器周期。


    你给出的代码中,j循环2000次,i循环250次,nop()指令占用一个机器周期。假设你的晶振频率是11.0592MHz,那么你的延时时间为:

    T = 2000 * 250 * (12 / 11.0592) * 1
    T = 6815.36 ms
    

    也就是说,你的代码实际上会延时6.8秒左右。


    如果你想要精确地延时2秒,你可以调整j或i的值。例如:

    void Delay2000ms()
    {
    unsigned char i;
    int j;
    for (j=0;j<735;j++)
    for (i=0;i<250;i++)
    _nop_();
    }
    

    这样就可以实现大约2秒的延时。


    希望这能帮到你。


    源: 与必应的对话, 2023/3/22

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

问题事件

  • 系统已结题 3月30日
  • 已采纳回答 3月22日
  • 创建了问题 3月22日

悬赏问题

  • ¥15 关于#java#的问题:找一份能快速看完mooc视频的代码
  • ¥15 这种微信登录授权 谁可以做啊
  • ¥15 请问我该如何添加自己的数据去运行蚁群算法代码
  • ¥20 用HslCommunication 连接欧姆龙 plc有时会连接失败。报异常为“未知错误”
  • ¥15 网络设备配置与管理这个该怎么弄
  • ¥20 机器学习能否像多层线性模型一样处理嵌套数据
  • ¥20 西门子S7-Graph,S7-300,梯形图
  • ¥50 用易语言http 访问不了网页
  • ¥50 safari浏览器fetch提交数据后数据丢失问题
  • ¥15 matlab不知道怎么改,求解答!!