2 jh012519 jh012519 于 2016.05.09 15:42 提问

以不同概率的方式发送消息测试服务器的性能问题

对在实际应用中的服务器进行性能测试,对实现不同的功能对应不同的数据包(自定义二进制数据包),在测试中,需要统计出发送不同包的概率模型(在网上查了一下,此概率模型好像满足泊松分布),在 Jmeter 写出一个类,以统计出来的概率模型发送数据包,测试服务器的性能。

在统计概率模型时,方法好像是:以 1 个小时为周期,不同的功能在周期内发送不同的次数,比如,一个设备注册在周期内发送一次,心跳则是每5分钟发送一次,等等

整个测试过程就是这样,由于本人才开始接触测试,对统计概率不知道该怎么来做,怎么才能得到此概率模型,怎么根据此模型用 Jmeter 模拟多个设备发送数据包来测试服务器的性能?

ps:不知道在网上该怎么查相关的资料,哪位做测试的大神能提供一个查找的方向

1个回答

devmiao
devmiao   Ds   Rxr 2016.05.09 22:31

使用随机数产生各种分布,然后进行测试。

Csdn user default icon
上传中...
上传图片
插入图片
准确详细的回答,更有利于被提问者采纳,从而获得C币。复制、灌水、广告等回答会被删除,是时候展现真正的技术了!
其他相关推荐
emqtt-benchmark发送指令
-
最大概率法分词及性能测试
最大概率分词是一种最基本的统计方法分词。一个待分割的字符串有多种分词结果,最大概率分词的原则是将其中概率最大的那个作为该字符串的分词结果。 第一部分 理论基础         如对一个字符串:         S:有意见分歧         分词结果1: w1:有/ 意见/ 分歧/         分词结果2: w2:有意/ 见/ 分歧/         最大概率分
(十二)RabbitMQ消息队列-性能测试
硬件配置宿主机用的联想3850X6的服务器四颗E7-4850v3的处理器,DDR4内存,两块1.25TB的pcie固态。在宿主机上使用的事esxi5.5的虚拟化平台,在子系统中安装RabbitMQ和测试脚本,RabbitMQ配置如下: CPU:24核 内存:24GB 硬盘:24GB固态确定哪些参数可能影响性能:进程数、是否持久化、是否ack确认以及交换机模式。其实交换机模式更多应该影响发布消息
实现不同概率抽奖功能
序号 物品名称 物品ID 抽奖概率 1 物品1 P1 0.2 2 物品2 P2 0.1 3 物品3 P3 0.4 4 物品4 P4 0.3 5 物品5 P5 0.0 6 物品6 P6 -0.1 7 物品7 P7 0.008
iometer测试是服务器硬盘的IO性能
http://network.pconline.com.cn/pingce/0711/1154018_10.html     性能测试: IOMeter 2004.07.30.win32.i386:   IO性能是服务器硬盘测试的重头戏。桌面硬盘使用IOMeter来测试IO性能也是有意义的。在进行复制和磁盘备份中,情况将会产生变化,会有更多的连续性读写操作发生,而在进行多线程FTP/
性能测试、操作系统优化对性能测试的影响,以及如何优化操作系统
标签:XenDesktop Citrix 性能测试 操作系统优化 Loginvsi vmware view vsphere 原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 、作者信息和本声明。否则将追究法律责任。http://virtualworld.blog.51cto.com/1412963/1374371 序 男生追女生方法名堂层出不穷,而女生追男生好像招数不多
Miller-Rabin概率素数测试算法
本文首先鸣谢以下资料文章: 资料1 资料2 资料3 下面我们开始正文,从源头开始真正的梳理一下素数测试1.素数我们都知道,素数在当今的数论中占有非常重要的地位,主要原因就是素数最根本的性质——除了1,和自身以外,不会被任何一个数整除 并且,素数现在在我们的日常生活中伴有非常重要的地位,这一点的其一主要原因就是素数已经是密码学中最重要的一点,我们当今的密码学常常要涉及到利用超大素数作为我们的
美团秋招笔试题--可乐瓶盖
某次买可乐集瓶盖活动中有5种不同的瓶盖以等概率出现,每买一瓶汽水可得到一个瓶盖,集齐所有瓶盖所买汽水瓶数的期望,与以下哪个结果最为接近? A.9 B.11 C.13 D.15 答案是B。标准解法是: 取到一种不同瓶盖的期望次数为1; 在已经取到一种瓶盖的情况下,再取到一种不同的瓶盖的期望次数是1/(4/5)=5/4; 在已经取到两种瓶盖的情况下,再取到一种不同的瓶盖的期望次
tensorflow分类预测引发的性能测试
我们把训练模型建立以后,投入到生产环境的时候,问题来了,一张图片进行预测,tensorflow启动加载模型在进行需要跑好几秒钟,才能得出一个预测值。这在真实环境中是不允许的。因为太慢了,为了找出原因所在,开始了如下的探究和测试。调试确定问题以google-inception模型中的test.py为例,先在测试模型中记录两个时间,最后相互减就得出所用时间,确定在哪一个环节耗时严重。# coding=u
服务器性能测试(benchmark)工具介绍
性能测试工具介绍 http://blog.chinaunix.net/u/6901/showart_102452.html 服务器性能测试典型工具介绍 性能测试工具 http://www.tech-q.cn/archiver/tid-1209.html iozone测试结果分析 http://blog.chinaunix.net/u2/73230/showart_1091304.htm