怎么用hadoop测试大数据检索过程的性能瓶颈

大牛们,求助啊,我是一名在读的研一学生,刚接触hadoop,现在接触的项目要求用hadoop测试大数据检索过程的性能瓶颈。。。到时给的要求是不用mapreduce,深入到hdfs源码,了解具体哪段代码段使用哪个硬件,比如"cpu,io,磁盘“等,再打上时间戳这样方向对吗??感觉实现难度好大呀??还麻烦您给点建议及意见ps,之前搭了个ganglia工具的环境,导师不满意,说只是外部应用,测不准,最好能得到各部分硬件的具体使用时间长短

3个回答

逐步增加负载,监测各个性能参数,然后找你的问题所在

我就开发大数据的图片说明

你用spark 完美解决。

weixin_38290411
weixin_38290411 能否说得更详细点。。。哥
2 年多之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!