- 1
回答
- 0
回答
package mapreduce;//import java.io.IOException;//import org.apache.hadoop.conf.Configuration;//impor
- 2
回答
- 1
回答
在idea上使用Big Data Tools连接hdfs,一直说URL不对,不知道是为什么,检查了hadoop的配置文件感觉都没问题
- 3
回答
- 31
回答
如何用WRFDA读取风云四号A 星的GIIRS数据,具体怎么操作,如编写接口(可参考wrfda/var/da/da_radiance里面的airs等文件)
- 1
回答
hbase shell创建表命令卡死怎么处理,写完create表命令后运行无任何反应
- 1
回答
- 1
回答
查看日志发现这种情况,应该怎么改呀?看hdfs-site.xml没有找到哪个-需要更改
- 1
回答
- 1
为什么执行这个任务时会出现这样的情况的呢,是yarn集群有问题还是其他的原因呢,请大家帮我看看
- 1
回答
我用cdo remapbil功能想调整这个文件的分辨率为一个1°×1°整数,结果不知道为什么这个功能就把原来的文件的经纬度范围给变得那么大。请大家看看问题出在哪儿。 (base) node04@nod
- 2
回答
package com.neuedu.myhbase.mybase; import com.neuedu.myhbase.mybase.HbsaseUtils; import com.neued
- 26
回答
你好,我想问下,我使用flume采集redis的日志信息到hdfs上,但在传输过程中出错了,只能传输两份日志。删掉flume重新下载也只能传输两份数据问题代码块如下 2024-08-07 10:53:
- ¥15
- hdfs
- 20
- 2024-08-07 11:12
- 22
回答
<-----------------------------------------------------------------> package com.neuedu.my
- 1
回答
单独启动后很快也会自动消失,已经失败了很多次了,也重新做过,但datanode就是启动不了,求指点一二
- 3
回答
hive执行insert报错,后面连接不上数据库 查了很多,我的core-site.xml文件中也配置 <property> <name>hadoop.pro
- 3
回答
- 3
回答
从hdfs向hive导入数据时候出现错误,外部表是创建成功的
- 2
回答
1.在Linux本地文件系统中创建三个文件,名字分别为1.txt,2.txt,3.txt其中1.txt的内容为hello,2.txt中的内容为apache,3.txt中的内容为hdfs 2.在HDFS
- hdfs
- 31
- 2024-06-24 16:40
- 1
回答
格式化namenode时输入 hdfs namenode —format后没有正常格式化 而是出了很长一段乱码
- 4
回答
导致idea依赖报错,Cannot resolve org.apache.spark:spark-core_2.11:pom:2.4.3 failed to transfer from http://
- 4
回答
- 4
在执行对 HDFS 中创建用户目录的指令时,回复的命令如下图所示,这种情况应该如何解决
- 4
首先我已经使用python采集到了8000多条txt文本数据,然后到数据存储与管理,我要使用hdfs技术,mysql存储方式我应该怎么些代码,应该怎么做? 数据存储完,就到数据处理与分析,有一下几种方
- 4
回答
hdfs zkfc -formatZK错误: 找不到或无法加载主类 org.apache.hadoop.hdfs.tools.DFSZKFailoverController
- 3
回答
- 3
回答
- 2
回答
python利用hdfs可以创建文件,已经添加了host映射,但是上传文件和读取文件显示由于目标计算机积极拒绝,无法连接