2 guoyachuan01 guoyachuan01 于 2014.07.08 14:14 提问

java连接hdfs,连接超时

java连接hdfs,30s未反应,退出,我该怎么做

之前一直是连接超时,重复连接45次,我想做的是:30s未响应,该操作就退出

Csdn user default icon
上传中...
上传图片
插入图片
准确详细的回答,更有利于被提问者采纳,从而获得C币。复制、灌水、广告等回答会被删除,是时候展现真正的技术了!
其他相关推荐
HDFS socket timeout时间设置
现有问题:HDFS在断网测试时,客户端向datanode写会中断一段时间,是因为有一个socket timeout的时间,过了这个timeout时间之后,客户端才会继续往上写。 在现生产环境中,我们有时候不需要太长的超时时间,此时就需自己手动去设置这个超时时间,通过查看源代码发现,hdfs在DFSClient.java文件中设置了写超时和读超时的时间,代码如下: /** * Return
Druid连接HDFS做Rename超时
最近在使用druid 0.11版本和Hadoop 2.6.0版本在整合的时候,遇到了下面的错误信息: 从错误的信息来看,这个是在druid操作HDFS的时候rename的时候超时了,跟踪到原代码发现异常是从FiniteAppenderatorDriver这个类里面抛出来的catch (Exception e) { final long sleepMillis = computeNextRetr
hdfs访问异常
Exception in thread "main" java.lang.IllegalArgumentException: Wrong FS: hdfs://nameservice1/user/dub/data/analyze/CY001/20151014/me mberdata, expected: file:///         at org.apache.hadoop.fs.File
和我一起学Hadoop(四):java客户端操作HDFS
Hadoop java客户端
hadoop datanode 节点超时时间设置
定义:datenode  与namenode 之间的通信是通过心跳的机制,当超过一定的时间则默认为datanode 为死亡 ,默认的死亡的事件为:10分钟+30秒 ,可同一下配置文件配置: datanode进程死亡或者网络故障造成datanode无法与namenode通信,namenode不会立即把该节点判定为死亡,         要经过一段时间,这段时间暂称作超时时长。H
JDBC连接超时问题
这两天遇到一个问题,早上来了登录我们的项目网站第一次登录总是登不上去,第二次就好了,我看了一下后台的报错信息是这样的: The last packet successfully received from the server was 57,704,088 milliseconds ago. The last packet sent successfully to the server
jedis连接redis服务器超时
问题: 通过java redis客户端连接redis服务器提示连接超时java代码示例:import redis.clients.jedis.Jedis;/** * @author libing * @desc * @date 2017/12/13 16:05 */ public class RedisJava { public static void main(String[] a
MongoDB-Java链接超时问题解决汇总
先用一张图来描述MongoDB连接超时问题:原文地址 以下是我在网络上收集到的: 官方的解决方法 链接描述 set the tcp keepalive 链接描述 聚合查询 解决方案是创建相关的索引 链接描述 正确创建索引 将background设置成异步的 db.getCollection('project').
HDFS的Java API的访问方式
HDFS的Java API访问方式
redis连接超时问题解决办法
redis.clients.jedis.exceptions.JedisConnectionException: java.net.SocketTimeoutException: connect timed out 解决办法1:关闭防火墙因为指令不同,所以看看哪种可用1.service sshd status 查看sshd的状态 service sshd start 启动sshd ser...