关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
柴鱼粥花生周
2022-07-15 10:24
采纳率: 100%
浏览 69
首页
大数据
已结题
Hadoop集群用stop-all.sh无法关闭,查看jps还是有
hadoop
Hadoop集群用stop-all.sh无法关闭,查看jps还是有
收起
写回答
好问题
0
提建议
关注问题
微信扫一扫
点击复制链接
分享
邀请回答
编辑
收藏
删除
收藏
举报
5
条回答
默认
最新
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
ln1°
2022-07-15 15:59
关注
看一下log日志报了什么错,或者直接kill -9杀掉进程
本回答被题主选为最佳回答
, 对您是否有帮助呢?
本回答被专家选为最佳回答
, 对您是否有帮助呢?
本回答被题主和专家选为最佳回答
, 对您是否有帮助呢?
解决
无用
评论
打赏
微信扫一扫
点击复制链接
分享
举报
评论
按下Enter换行,Ctrl+Enter发表内容
查看更多回答(4条)
向“C知道”追问
报告相同问题?
提交
关注问题
Hadoop
集群
stop
-all.
sh
无法
关闭
进程,能否用kill -9直接杀死进程然后删除data和log后直接格式化再启动
集群
hadoop
2022-07-16 11:06
回答 4
已采纳
直接杀了可以的
stop
-all.
sh
里面引用了系统的环境变量的
hadoop
的东西,你有配置
hadoop
的环境变量吗
hadoop
验证登录start-dfs.
sh
hadoop
有问必答
2022-03-16 15:11
回答 2
已采纳
去检查一下对应的位置有没有那个文件,另外注意一下对应的文件和文件路径下的文件夹的权限,有没有可读可写可执行的权限,如果没有的话就给它加上,还有就是配置文件里面不要有中文注释,有的话就删除掉,防止以后出
【
Hadoop
】执行任务时出现resource.ResourceUtils: Unable to find 'resource-types.xml'.
hadoop
大数据
2022-06-18 17:55
回答 1
已采纳
如果没有用到GPU、FPGA可以不关注这个,不影响正常使用如果要使用gpu、fpga,需要通过这个文件指定gpu、fpga作为调度的一种资源例如: yarn.resource-t
无法
停止
hadoop
集群
(
stop
-all.
sh
)
2019-01-05 14:04
markix的博客
执行 ./bin/
stop
-all.
sh
脚本一直提示没有可停止的namenode、datanode、secondarynode。可是输入
jps
命令,发现
hadoop
已经启动。 [root@xxxxxx src]# ba
sh
hadoop
-2.6.5/sbin/
stop
-all.
sh
This script is ...
启动伪分布
hadoop
时sbin/start-dfs.
sh
进不去
hadoop
2022-09-22 22:50
回答 1
已采纳
把对应id的进程kill,再试试
centos7配置
Hadoop
环境时输入vi core-site.xml后一片空白
centos
hadoop
2021-09-08 15:23
回答 1
已采纳
你的路径不对吗,当前路径下没有那个文件
HDFS
查看
文件命令 `
hadoop
fs -ls .` 的理解
hadoop
hdfs
2021-11-15 16:27
回答 1
已采纳
默认为用户的home目录 home目录的默认路径为 /user, 根据配置项(dfs.user.home.dir.prefix)决定而用户(非kerberos的情况下), 则是根据 环境变量HADOO
一段时间后,
stop
-dfs.
sh
关不掉
Hadoop
3.1.3
集群
,
stop
-hbase.
sh
关不掉HBase
集群
2022-12-04 10:12
小基基o_O的博客
stop
-dfs.
sh
关不掉
Hadoop
3.1.3
集群
stop
-hbase.
sh
关不掉HBase
集群
大数据
启动 sbin/start-dfs.
sh
报Cannot set priority of secondarynamenode process 4626怎么解决
big data
hadoop
大数据
2022-02-03 17:02
回答 1
已采纳
显然,
hadoop
104心跳没能连上,最后检查能否在一下节点连通,主节点能否免密到问题节点
使用hdfs上传文件报错org.apache.
hadoop
.hdfs.CannotObtainBlockLengthExceptio
hadoop
hdfs
java
2022-08-15 11:47
回答 6
已采纳
信息不足不是很好判断,找了下源码,报错的方法如下: /** Read the block length from one of the datanodes. */ private long rea
Hadoop
无法
访问网页yarn
hadoop
103-8088
hadoop
大数据
数据仓库
有问必答
2023-04-16 20:08
回答 2
已采纳
可能是由于
Hadoop
103节点没有启动 yarn没有启动成功
stop
-all.
sh
停止不了
hadoop
集群
2020-09-08 10:50
sq0723的博客
Hadoop
集群
使用
stop
-all.
sh
停止时,停止不了,提示各个进程都找不到,但是各个进程都存在。 问题原因:
hadoop
启动停止都是通过
hadoop
-deamon.
sh
文件,脚本是通过pid文件来停止
hadoop
服务的。
集群
默认配置的pid文件...
stop
-all.
sh
无法
停止
hadoop
集群
2019-03-22 23:51
能白话的程序员♫的博客
1 问题:执行
stop
-all.
sh
脚本一直提示没有可停止的namenode、datanode、secondarynode。...2 产生原因:
stop
-all.
sh
执行的原理是根据mapred和dfs的进程号进行
关闭
进程的,而这些进程号默认是存储在/...
【详解】
Hadoop
执行start-all.
sh
时namenode没有启动
2025-01-13 18:23
牛肉胡辣汤的博客
通过以上步骤,你可以排查和解决
Hadoop
集群
中Namenode没有启动的问题。 脚本时,如果发现NameNode没有成功启动,这通常意味着存在某些配置错误或环境问题。通过以上步骤,你应该能够诊断并解决NameNode
无法
启动的...
执行
stop
-dfs.
sh
后
无法
停止
hadoop
集群
【
hadoop
】
2018-11-12 20:51
张今天的博客
错误情况:
Stop
ping namenodes on [master] master: no namenode to
stop
slave1: no datanode to
stop
slave2: no datanode to
stop
slave3: no datanode to
stop
Stop
ping secondary namenodes...执行
stop
-dfs.
sh
...
没有解决我的问题,
去提问
向专家提问
向AI提问
付费问答(悬赏)服务下线公告
◇ 用户帮助中心
◇ 新手如何提问
◇ 奖惩公告
问题事件
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
系统已结题
10月24日
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
已采纳回答
10月16日
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
创建了问题
7月15日