u010991835 2016-03-23 07:50 采纳率: 0%
浏览 665

关于mysql和hadoop数据交互的问题,和hadoop的文件夹设计

关于mysql和hadoop数据交互的问题,和hadoop的文件夹设计

关于mysql和hadoop数据交互的问题,和hadoop的文件夹设计

目前mysql按地区,商业区区分,假设读取mysql数据库的地区,根据地区划分

我昨天和领导沟通了,领导说点击率不是必要条件,地区划分才是重点,后面就是各方面劝导,只好以地区区分,关键是这个镇区区分数据和产品的话,全国有6k多个地区,

这样的hdfs文件夹数量,岂不是很崩溃,

后面感觉还有很多纬度和条件查询啥的,上头又喊了一句不一定要用hadoop,发挥hadoop啥啥优势,mysql多条件查询方便,好好做这个方案,然后我就一头雾水了,心里比较纠结和郁闷。最近搞mahout出了点成绩,发现单机版也挺好使(数据量少的前提下),搜了搜房子,北京也就519,059这么多套房子在待售,没啥必要用hadoop,自我感觉,如果只是单独分析这些条数据519,059条,感觉不大,

如果你有好的博客和资源提供,麻烦提供url连接,谢谢

  • 写回答

1条回答

  • 不良使 Python领域潜力新星 2023-06-06 21:20
    关注

    关于 MySQL 和 Hadoop 之间的数据交互问题,可以考虑使用 Sqoop 工具进行数据传输,Sqoop 是基于 Hadoop 的开源工具,可以方便地将关系型数据库的数据导入到 Hadoop 中进行处理。对于高并发的数据访问,建议将 MySQL 配置成主从复制的方式,将查询操作和写操作分别分配到不同的服务器上,这样可以大幅提高 MySQL 的并发处理能力。

    对于 Hadoop 的文件夹设计,可以根据需要进行分区和分桶设计,以提高查询性能。例如,可以按照地区、商圈、价格等维度进行分区和分桶,这样可以将数据划分为更小的数据集,提高查询效率。建议使用 Partitioner 类来进行数据分区,同时可以使用 Combiner 类来在 Map 阶段进行数据聚合,减少数据传输量和网络开销。

    如果你的数据量相对较小,可以考虑直接使用 MySQL 进行数据处理和分析,并使用一些数据分析工具(如 R、Python 等)来分析数据。当数据量增大时,再考虑使用 Hadoop 等分布式计算平台进行数据处理和分析。

    如果你想进一步了解 Hadoop 和大数据处理,可以参考以下一些资源:

    1. 《Hadoop权威指南》(Tom White 著)
    2. 《大数据处理:Spark和Hadoop实践》(Sandy Ryza 等著)
    3. Hadoop 官方网站:http://hadoop.apache.org/
    4. Spark 官方网站:https://spark.apache.org/
    5. 大数据资讯网站:http://www.infoq.com/cn/bigdata/
    评论

报告相同问题?

悬赏问题

  • ¥15 如何在scanpy上做差异基因和通路富集?
  • ¥20 关于#硬件工程#的问题,请各位专家解答!
  • ¥15 关于#matlab#的问题:期望的系统闭环传递函数为G(s)=wn^2/s^2+2¢wn+wn^2阻尼系数¢=0.707,使系统具有较小的超调量
  • ¥15 FLUENT如何实现在堆积颗粒的上表面加载高斯热源
  • ¥30 截图中的mathematics程序转换成matlab
  • ¥15 动力学代码报错,维度不匹配
  • ¥15 Power query添加列问题
  • ¥50 Kubernetes&Fission&Eleasticsearch
  • ¥15 報錯:Person is not mapped,如何解決?
  • ¥15 c++头文件不能识别CDialog