Netty-SocketIO 后台如何连接端口推送消息到前端 10C

最近在部署了一个Netty-SocketIO服务端,不是集成在应用,不在一台服务器,使用的netty4.0,前端用的是socketio.js,前端推送基本功能都没问题了,
基本应用前端触发io请求远程连接到服务端,然后服务端推送到各个客户端浏览器,现在有这样问题,如果我的消息是应用后台生成的,想要后台连接到
服务端,再推送客户端,怎么实现?
SocketIO不xaingsocket,得通过http请求访问到服务端,网上鲜有这样的例子,后台应该也是通过http连接到服务端,但是怎么推消息到服务端,有没有
例子,Netty-SocketIO应该具备了这个功能

net

2个回答

有一个框架叫mpush你可以看看。

服务端主动推送到前端,一般只有前端将自己注册到后端,并且轮询或者长连接,才能进行推送。

@OnEvent(value = "messageevent")
public void onEvent(SocketIOClient client, AckRequest request, MessageInfo data) {
System.out.println("发来消息:" + data.getMsgContent());
socketIoServer.getClient(client.getSessionId()).sendEvent("messageevent", "back data");
}

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
基于netty-socketio 的java版本聊天室问题请教
 现在在写一个聊天室的接入,在网上发现了基于netty socketio的聊天室,项目在github上面,https://github.com/mrniko/netty-socketio,我很多人给的案例使用介绍都是单个聊天室的创建,根据一个ip和一个端口,创建一个聊天室,但是如果我需要建立多个聊天室,这里不知道该怎么做,我开始的方案是每创建一个房间,就用一个端口,后来我发现这个很浪费资源,就像问问大家有没有好的解决方案或者文章介绍或者案例介绍,谢谢
Netty-SocketIO启动报错
[2017-11-15 10:05:43\ [globalEventExecutor-1-2] ERROR] [globalEventExecutor-1-2] {com.corundumstudio.socketio.SocketIOServer:157}-SocketIO server start failed at port: 8080! io.netty.channel.ChannelException: Unable to create Channel from class class io.netty.channel.socket.nio.NioServerSocketChannel at io.netty.channel.ReflectiveChannelFactory.newChannel(ReflectiveChannelFactory.java:40) at io.netty.bootstrap.AbstractBootstrap.initAndRegister(AbstractBootstrap.java:319) at io.netty.bootstrap.AbstractBootstrap.doBind(AbstractBootstrap.java:281) at io.netty.bootstrap.AbstractBootstrap.bind(AbstractBootstrap.java:277) at com.corundumstudio.socketio.SocketIOServer.startAsync(SocketIOServer.java:151) at com.corundumstudio.socketio.SocketIOServer.start(SocketIOServer.java:123) at com.utils.SocketIoService.startServer(SocketIoService.java:39) at com.hz.demo.controller.TestController.startServer(TestController.java:51) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.springframework.web.method.support.InvocableHandlerMethod.doInvoke(InvocableHandlerMethod.java:205) at org.springframework.web.method.support.InvocableHandlerMethod.invokeForRequest(InvocableHandlerMethod.java:133) at org.springframework.web.servlet.mvc.method.annotation.ServletInvocableHandlerMethod.invokeAndHandle(ServletInvocableHandlerMethod.java:97) at org.springframework.web.servlet.mvc.method.annotation.RequestMappingHandlerAdapter.invokeHandlerMethod(RequestMappingHandlerAdapter.java:827) at org.springframework.web.servlet.mvc.method.annotation.RequestMappingHandlerAdapter.handleInternal(RequestMappingHandlerAdapter.java:738) at org.springframework.web.servlet.mvc.method.AbstractHandlerMethodAdapter.handle(AbstractHandlerMethodAdapter.java:85) at org.springframework.web.servlet.DispatcherServlet.doDispatch(DispatcherServlet.java:967) at org.springframework.web.servlet.DispatcherServlet.doService(DispatcherServlet.java:901) at org.springframework.web.servlet.FrameworkServlet.processRequest(FrameworkServlet.java:970) at org.springframework.web.servlet.FrameworkServlet.doGet(FrameworkServlet.java:861) at javax.servlet.http.HttpServlet.service(HttpServlet.java:635) at org.springframework.web.servlet.FrameworkServlet.service(FrameworkServlet.java:846) at javax.servlet.http.HttpServlet.service(HttpServlet.java:742) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:231) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:166) at org.apache.tomcat.websocket.server.WsFilter.doFilter(WsFilter.java:52) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:193) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:166) at com.alibaba.druid.support.http.WebStatFilter.doFilter(WebStatFilter.java:123) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:193) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:166) at org.springframework.web.filter.RequestContextFilter.doFilterInternal(RequestContextFilter.java:99) at org.springframework.web.filter.OncePerRequestFilter.doFilter(OncePerRequestFilter.java:107) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:193) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:166) at org.springframework.web.filter.HttpPutFormContentFilter.doFilterInternal(HttpPutFormContentFilter.java:108) at org.springframework.web.filter.OncePerRequestFilter.doFilter(OncePerRequestFilter.java:107) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:193) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:166) at org.springframework.web.filter.HiddenHttpMethodFilter.doFilterInternal(HiddenHttpMethodFilter.java:81) at org.springframework.web.filter.OncePerRequestFilter.doFilter(OncePerRequestFilter.java:107) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:193) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:166) at org.springframework.web.filter.CharacterEncodingFilter.doFilterInternal(CharacterEncodingFilter.java:197) at org.springframework.web.filter.OncePerRequestFilter.doFilter(OncePerRequestFilter.java:107) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:193) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:166) at org.apache.catalina.core.StandardWrapperValve.invoke(StandardWrapperValve.java:199) at org.apache.catalina.core.StandardContextValve.invoke(StandardContextValve.java:96) at org.apache.catalina.authenticator.AuthenticatorBase.invoke(AuthenticatorBase.java:478) at org.apache.catalina.core.StandardHostValve.invoke(StandardHostValve.java:140) at org.apache.catalina.valves.ErrorReportValve.invoke(ErrorReportValve.java:81) at org.apache.catalina.core.StandardEngineValve.invoke(StandardEngineValve.java:87) at org.apache.catalina.connector.CoyoteAdapter.service(CoyoteAdapter.java:342) at org.apache.coyote.http11.Http11Processor.service(Http11Processor.java:803) at org.apache.coyote.AbstractProcessorLight.process(AbstractProcessorLight.java:66) at org.apache.coyote.AbstractProtocol$ConnectionHandler.process(AbstractProtocol.java:868) at org.apache.tomcat.util.net.NioEndpoint$SocketProcessor.doRun(NioEndpoint.java:1459) at org.apache.tomcat.util.net.SocketProcessorBase.run(SocketProcessorBase.java:49) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617) at org.apache.tomcat.util.threads.TaskThread$WrappingRunnable.run(TaskThread.java:61) at java.lang.Thread.run(Thread.java:745) Caused by: java.lang.NoClassDefFoundError: Could not initialize class io.netty.channel.ChannelOutboundBuffer at io.netty.channel.AbstractChannel$AbstractUnsafe.<init>(AbstractChannel.java:421) at io.netty.channel.nio.AbstractNioChannel$AbstractNioUnsafe.<init>(AbstractNioChannel.java:218) at io.netty.channel.nio.AbstractNioMessageChannel$NioMessageUnsafe.<init>(AbstractNioMessageChannel.java:58) at io.netty.channel.nio.AbstractNioMessageChannel$NioMessageUnsafe.<init>(AbstractNioMessageChannel.java:58) at io.netty.channel.nio.AbstractNioMessageChannel.newUnsafe(AbstractNioMessageChannel.java:47) at io.netty.channel.nio.AbstractNioMessageChannel.newUnsafe(AbstractNioMessageChannel.java:35) at io.netty.channel.AbstractChannel.<init>(AbstractChannel.java:80) at io.netty.channel.nio.AbstractNioChannel.<init>(AbstractNioChannel.java:84) at io.netty.channel.nio.AbstractNioMessageChannel.<init>(AbstractNioMessageChannel.java:42) at io.netty.channel.socket.nio.NioServerSocketChannel.<init>(NioServerSocketChannel.java:85) at io.netty.channel.socket.nio.NioServerSocketChannel.<init>(NioServerSocketChannel.java:71) at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method) at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62) at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45) at java.lang.reflect.Constructor.newInstance(Constructor.java:423) at java.lang.Class.newInstance(Class.java:442) at io.netty.channel.ReflectiveChannelFactory.newChannel(ReflectiveChannelFactory.java:38) ... 64 more
netty-socket-io瞬间连接量太大
基于netty的socket-io的方式做一个客户端和服务端实时通讯的功能,当我们的系统重新部署之后,原先保持的连接肯定都断开-->重新连接服务端,那么服务端肯定有收到大量的连接请求,服务端又刚刚启动;所以有以下两个问题: 1.socket-io 基于普通的服务器最多能连接多少? 2.socket-io针对服务部署后客户端瞬时大量重新连接应该怎么处理? 3.有神没有什么预热的方式,缓解系统的一部分压力,防止系统宕机崩溃? 希望各位能够帮忙。
storm提示connection attempt to Netty-Client-ubuntu1
当我提交任务给storm时,发现2台supervisor中对应的日志输出都如下,请问如何解决: connection attempt 367 to Netty-Client-ubuntu1:6704 failed: java.nio.channels.UnresolvedAddressException b.s.m.n.StormClientHandler [INFO] Connection failed Netty-Client-ubuntu1:6704 java.nio.channels.UnresolvedAddressException at sun.nio.ch.Net.checkAddress(Net.java:101) ~[?:1.8.0_121] at sun.nio.ch.SocketChannelImpl.connect(SocketChannelImpl.java:622) ~[?:1.8.0_121] at org.apache.storm.shade.org.jboss.netty.channel.socket.nio.NioClientSocketPipelineSink.connect(NioClientSocketPipelineSink.java:108) [storm-core-0.10.2.jar:0.10.2] at org.apache.storm.shade.org.jboss.netty.channel.socket.nio.NioClientSocketPipelineSink.eventSunk(NioClientSocketPipelineSink.java:70) [storm-core-0.10.2.jar:0.10.2] at org.apache.storm.shade.org.jboss.netty.channel.DefaultChannelPipeline$DefaultChannelHandlerContext.sendDownstream(DefaultChannelPipeline.java:779) [storm-core-0.10.2.jar:0.10.2] at org.apache.storm.shade.org.jboss.netty.handler.codec.oneone.OneToOneEncoder.handleDownstream(OneToOneEncoder.java:54) [storm-core-0.10.2.jar:0.10.2] at org.apache.storm.shade.org.jboss.netty.channel.DefaultChannelPipeline.sendDownstream(DefaultChannelPipeline.java:591) [storm-core-0.10.2.jar:0.10.2] at org.apache.storm.shade.org.jboss.netty.channel.DefaultChannelPipeline.sendDownstream(DefaultChannelPipeline.java:582) [storm-core-0.10.2.jar:0.10.2] at org.apache.storm.shade.org.jboss.netty.channel.Channels.connect(Channels.java:634) [storm-core-0.10.2.jar:0.10.2] at org.apache.storm.shade.org.jboss.netty.channel.AbstractChannel.connect(AbstractChannel.java:207) [storm-core-0.10.2.jar:0.10.2] at org.apache.storm.shade.org.jboss.netty.bootstrap.ClientBootstrap.connect(ClientBootstrap.java:229) [storm-core-0.10.2.jar:0.10.2] at org.apache.storm.shade.org.jboss.netty.bootstrap.ClientBootstrap.connect(ClientBootstrap.java:182) [storm-core-0.10.2.jar:0.10.2] at backtype.storm.messaging.netty.Client$Connect.run(Client.java:518) [storm-core-0.10.2.jar:0.10.2] at org.apache.storm.shade.org.jboss.netty.util.HashedWheelTimer$HashedWheelTimeout.expire(HashedWheelTimer.java:546) [storm-core-0.10.2.jar:0.10.2] at org.apache.storm.shade.org.jboss.netty.util.HashedWheelTimer$Worker.notifyExpiredTimeouts(HashedWheelTimer.java:446) [storm-core-0.10.2.jar:0.10.2] at org.apache.storm.shade.org.jboss.netty.util.HashedWheelTimer$Worker.run(HashedWheelTimer.java:395) [storm-core-0.10.2.jar:0.10.2] at org.apache.storm.shade.org.jboss.netty.util.ThreadRenamingRunnable.run(ThreadRenamingRunnable.java:108) [storm-core-0.10.2.jar:0.10.2] at java.lang.Thread.run(Thread.java:745) [?:1.8.0_121]
netty消息主动推送 ,不使用channelActive事件
请问netty怎么主动推送消息 我说的是不用channelActive方法 或者在handler里怎么实现 求具体一
springboot、netty、redis
springboot 整合netty搭建socket,使用redis缓存,可以正常启动,在不适用缓存时可以交互,使用缓存出异常 ``` java.lang.NoSuchMethodError: io.netty.bootstrap.Bootstrap.channel(Ljava/lang/Class;)Lio/netty/bootstrap/AbstractBootstrap; at io.lettuce.core.AbstractRedisClient.channelType(AbstractRedisClient.java:179) ~[lettuce-core-5.1.4.RELEASE.jar:?] at io.lettuce.core.RedisClient.connectStatefulAsync(RedisClient.java:304) ~[lettuce-core-5.1.4.RELEASE.jar:?] at io.lettuce.core.RedisClient.connectStandaloneAsync(RedisClient.java:271) ~[lettuce-core-5.1.4.RELEASE.jar:?] at io.lettuce.core.RedisClient.connect(RedisClient.java:204) ~[lettuce-core-5.1.4.RELEASE.jar:?] at org.springframework.data.redis.connection.lettuce.StandaloneConnectionProvider.lambda$getConnection$1(StandaloneConnectionProvider.java:113) ~[spring-data-redis-2.1.5.RELEASE.jar:2.1.5.RELEASE] at java.util.Optional.orElseGet(Optional.java:267) ~[?:1.8.0_201] at org.springframework.data.redis.connection.lettuce.StandaloneConnectionProvider.getConnection(StandaloneConnectionProvider.java:113) ~[spring-data-redis-2.1.5.RELEASE.jar:2.1.5.RELEASE] at org.springframework.data.redis.connection.lettuce.LettuceConnectionFactory$SharedConnection.getNativeConnection(LettuceConnectionFactory.java:1085) ~[spring-data-redis-2.1.5.RELEASE.jar:2.1.5.RELEASE] at org.springframework.data.redis.connection.lettuce.LettuceConnectionFactory$SharedConnection.getConnection(LettuceConnectionFactory.java:1065) ~[spring-data-redis-2.1.5.RELEASE.jar:2.1.5.RELEASE] at org.springframework.data.redis.connection.lettuce.LettuceConnectionFactory.getSharedConnection(LettuceConnectionFactory.java:865) ~[spring-data-redis-2.1.5.RELEASE.jar:2.1.5.RELEASE] at org.springframework.data.redis.connection.lettuce.LettuceConnectionFactory.getConnection(LettuceConnectionFactory.java:340) ~[spring-data-redis-2.1.5.RELEASE.jar:2.1.5.RELEASE] at org.springframework.data.redis.core.RedisConnectionUtils.doGetConnection(RedisConnectionUtils.java:132) ~[spring-data-redis-2.1.5.RELEASE.jar:2.1.5.RELEASE] at org.springframework.data.redis.core.RedisConnectionUtils.getConnection(RedisConnectionUtils.java:95) ~[spring-data-redis-2.1.5.RELEASE.jar:2.1.5.RELEASE] at org.springframework.data.redis.core.RedisConnectionUtils.getConnection(RedisConnectionUtils.java:82) ~[spring-data-redis-2.1.5.RELEASE.jar:2.1.5.RELEASE] at org.springframework.data.redis.core.RedisTemplate.execute(RedisTemplate.java:211) ~[spring-data-redis-2.1.5.RELEASE.jar:2.1.5.RELEASE] at org.springframework.data.redis.core.RedisTemplate.execute(RedisTemplate.java:184) ~[spring-data-redis-2.1.5.RELEASE.jar:2.1.5.RELEASE] at org.springframework.data.redis.core.AbstractOperations.execute(AbstractOperations.java:95) ~[spring-data-redis-2.1.5.RELEASE.jar:2.1.5.RELEASE] at org.springframework.data.redis.core.DefaultValueOperations.get(DefaultValueOperations.java:53) ~[spring-data-redis-2.1.5.RELEASE.jar:2.1.5.RELEASE] at com.viewhigh.hiot.elec.service.serviceimp.RedisServiceImpl.get(RedisServiceImpl.java:76) ~[classes/:?] at com.viewhigh.hiot.elec.protocol.ProtocolElecService.isCheck(ProtocolElecService.java:177) ~[classes/:?] at com.viewhigh.hiot.elec.protocol.ProtocolElecService.checkMsg(ProtocolElecService.java:161) ~[classes/:?] at com.viewhigh.hiot.elec.server.SocketServerHandler.channelRead(SocketServerHandler.java:89) ~[classes/:?] at io.netty.channel.ChannelHandlerInvokerUtil.invokeChannelReadNow(ChannelHandlerInvokerUtil.java:74) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at io.netty.channel.DefaultChannelHandlerInvoker.invokeChannelRead(DefaultChannelHandlerInvoker.java:138) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at io.netty.channel.DefaultChannelHandlerContext.fireChannelRead(DefaultChannelHandlerContext.java:320) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at io.netty.handler.codec.ByteToMessageDecoder.channelRead(ByteToMessageDecoder.java:154) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at io.netty.channel.ChannelHandlerInvokerUtil.invokeChannelReadNow(ChannelHandlerInvokerUtil.java:74) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at io.netty.channel.DefaultChannelHandlerInvoker.invokeChannelRead(DefaultChannelHandlerInvoker.java:138) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at io.netty.channel.DefaultChannelHandlerContext.fireChannelRead(DefaultChannelHandlerContext.java:320) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at io.netty.handler.timeout.IdleStateHandler.channelRead(IdleStateHandler.java:253) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at io.netty.channel.ChannelHandlerInvokerUtil.invokeChannelReadNow(ChannelHandlerInvokerUtil.java:74) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at io.netty.channel.DefaultChannelHandlerInvoker.invokeChannelRead(DefaultChannelHandlerInvoker.java:138) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at io.netty.channel.DefaultChannelHandlerContext.fireChannelRead(DefaultChannelHandlerContext.java:320) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at io.netty.channel.DefaultChannelPipeline.fireChannelRead(DefaultChannelPipeline.java:846) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at io.netty.channel.nio.AbstractNioByteChannel$NioByteUnsafe.read(AbstractNioByteChannel.java:127) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at io.netty.channel.nio.NioEventLoop.processSelectedKey(NioEventLoop.java:485) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at io.netty.channel.nio.NioEventLoop.processSelectedKeysOptimized(NioEventLoop.java:452) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at io.netty.channel.nio.NioEventLoop.run(NioEventLoop.java:346) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at io.netty.util.concurrent.SingleThreadEventExecutor$5.run(SingleThreadEventExecutor.java:794) [netty-all-5.0.0.Alpha1.jar:5.0.0.Alpha1] at java.lang.Thread.run(Thread.java:748) [?:1.8.0_201] ``` 可能是个包冲突,但是不确定也没有找到是那个冲突,求助,帮看看
Storm 0.10.0 storm写es会出现大量的netty连接失败的Error
WARNING: An exception was thrown by TimerTask. java.lang.RuntimeException: Giving up to scheduleConnect to Netty-Client-wyzjd02/172.18.2.5:6704 after 41 failed attempts. 221 messages were lost at backtype.storm.messaging.netty.Client$Connect.run(Client.java:511) at org.apache.storm.shade.org.jboss.netty.util.HashedWheelTimer$HashedWheelTimeout.expire(HashedWheelTimer.java:546) at org.apache.storm.shade.org.jboss.netty.util.HashedWheelTimer$Worker.notifyExpiredTimeouts(HashedWheelTimer.java:446) at org.apache.storm.shade.org.jboss.netty.util.HashedWheelTimer$Worker.run(HashedWheelTimer.java:395) at org.apache.storm.shade.org.jboss.netty.util.ThreadRenamingRunnable.run(ThreadRenamingRunnable.java:108) at java.lang.Thread.run(Thread.java:745) 2016-09-07 10:16:40.260 b.s.m.n.Client [ERROR] connection attempt 2 to Netty-Client-wyfx03/172.18.2.3:6700 failed: java.net.ConnectException: Connection refused: wyfx03/172.18.2.3:6700 2016-09-07 10:16:40.461 b.s.m.n.Client [ERROR] connection attempt 3 to Netty-Client-wyfx03/172.18.2.3:6700 failed: java.net.ConnectException: Connection refused: wyfx03/172.18.2.3:6700 2016-09-07 10:16:40.661 b.s.m.n.Client [ERROR] connection attempt 4 to Netty-Client-wyfx03/172.18.2.3:6700 failed: java.net.ConnectException: Connection refused: wyfx03/172.18.2.3:6700 2016-09-07 10:16:40.860 b.s.m.n.Client [ERROR] connection attempt 5 to Netty-Client-wyfx03/172.18.2.3:6700 failed: java.net.ConnectException: Connection refused: wyfx03/172.18.2.3:6700 2016-09-07 10:16:41.061 b.s.m.n.Client [ERROR] connection attempt 6 to Netty-Client-wyfx03/172.18.2.3:6700 failed: java.net.ConnectException: Connection refused: wyfx03/172.18.2.3:6700 2016-09-07 10:16:41.361 b.s.m.n.Client [ERROR] connection attempt 7 to Netty-Client-wyfx03/172.18.2.3:6700 failed: java.net.ConnectException: Connection refused: wyfx03/172.18.2.3:6700 2016-09-07 10:16:41.660 b.s.m.n.Client [ERROR] connection attempt 8 to Netty-Client-wyfx03/172.18.2.3:6700 failed: java.net.ConnectException: Connection refused: wyfx03/172.18.2.3:6700 2016-09-07 10:16:42.060 b.s.m.n.Client [ERROR] connection attempt 9 to Netty-Client-wyfx03/172.18.2.3:6700 failed: java.net.ConnectException: Connection refused: wyfx03/172.18.2.3:6700 2016-09-07 10:16:42.463 b.s.m.n.Client [ERROR] connection attempt 10 to Netty-Client-wyfx03/172.18.2.3:6700 failed: java.net.ConnectException: Connection refused: wyfx03/172.18.2.3:6700 2016-09-07 10:16:35.559 b.s.m.n.StormClientHandler [INFO] Connection failed Netty-Client-wyzjd02/172.18.2.5:6704 java.io.IOException: Connection reset by peer at sun.nio.ch.FileDispatcherImpl.read0(Native Method) ~[?:1.7.0_80] at sun.nio.ch.SocketDispatcher.read(SocketDispatcher.java:39) ~[?:1.7.0_80] at sun.nio.ch.IOUtil.readIntoNativeBuffer(IOUtil.java:223) ~[?:1.7.0_80] at sun.nio.ch.IOUtil.read(IOUtil.java:192) ~[?:1.7.0_80] at sun.nio.ch.SocketChannelImpl.read(SocketChannelImpl.java:384) ~[?:1.7.0_80] at org.apache.storm.shade.org.jboss.netty.channel.socket.nio.NioWorker.read(NioWorker.java:64) [storm-core-0.10.0.jar:0.10.0] at org.apache.storm.shade.org.jboss.netty.channel.socket.nio.AbstractNioWorker.process(AbstractNioWorker.java:108) [storm-core-0.10.0.jar:0.10.0] at org.apache.storm.shade.org.jboss.netty.channel.socket.nio.AbstractNioSelector.run(AbstractNioSelector.java:318) [storm-core-0.10.0.jar:0.10.0] at org.apache.storm.shade.org.jboss.netty.channel.socket.nio.AbstractNioWorker.run(AbstractNioWorker.java:89) [storm-core-0.10.0.jar:0.10.0] at org.apache.storm.shade.org.jboss.netty.channel.socket.nio.NioWorker.run(NioWorker.java:178) [storm-core-0.10.0.jar:0.10.0] at org.apache.storm.shade.org.jboss.netty.util.ThreadRenamingRunnable.run(ThreadRenamingRunnable.java:108) [storm-core-0.10.0.jar:0.10.0] at org.apache.storm.shade.org.jboss.netty.util.internal.DeadLockProofWorker$1.run(DeadLockProofWorker.java:42) [storm-core-0.10.0.jar:0.10.0] at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145) [?:1.7.0_80] at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615) [?:1.7.0_80] at java.lang.Thread.run(Thread.java:745) [?:1.7.0_80] 2016-09-07 10:16:35.560 b.s.m.n.Client [ERROR] failed to send 1 messages to Netty-Client-wyzjd02/172.18.2.5:6704: java.nio.channels.ClosedChannelException 2016-09-07 10:16:35.561 b.s.m.n.Client [ERROR] failed to send 1 messages to Netty-Client-wyzjd02/172.18.2.5:6704: java.nio.channels.ClosedChannelException 2016-09-07 10:16:35.561 b.s.m.n.Client [ERROR] failed to send 1 messages to Netty-Client-wyzjd02/172.18.2.5:6704: java.nio.channels.ClosedChannelException 2016-09-07 10:16:35.561 b.s.m.n.Client [ERROR] failed to send 1 messages to Netty-Client-wyzjd02/172.18.2.5:6704: java.nio.channels.ClosedChannelException 2016-09-07 10:16:35.561 b.s.m.n.StormClientHandler [INFO] Connection failed Netty-Client-wyzjd02/172.18.2.5:6704 java.nio.channels.ClosedChannelException at org.apache.storm.shade.org.jboss.netty.channel.socket.nio.AbstractNioWorker.cleanUpWriteBuffer(AbstractNioWorker.java:433) [storm-core-0.10.0.jar:0.10.0] at org.apache.storm.shade.org.jboss.netty.channel.socket.nio.AbstractNioWorker.close(AbstractNioWorker.java:373) [storm-core-0.10.0.jar:0.10.0] at org.apache.storm.shade.org.jboss.netty.channel.socket.nio.NioWorker.read(NioWorker.java:93) [storm-core-0.10.0.jar:0.10.0] at org.apache.storm.shade.org.jboss.netty.channel.socket.nio.AbstractNioWorker.process(AbstractNioWorker.java:108) [storm-core-0.10.0.jar:0.10.0] at org.apache.storm.shade.org.jboss.netty.channel.socket.nio.AbstractNioSelector.run(AbstractNioSelector.java:318) [storm-core-0.10.0.jar:0.10.0] at org.apache.storm.shade.org.jboss.netty.channel.socket.nio.AbstractNioWorker.run(AbstractNioWorker.java:89) [storm-core-0.10.0.jar:0.10.0] at org.apache.storm.shade.org.jboss.netty.channel.socket.nio.NioWorker.run(NioWorker.java:178) [storm-core-0.10.0.jar:0.10.0] at org.apache.storm.shade.org.jboss.netty.util.ThreadRenamingRunnable.run(ThreadRenamingRunnable.java:108) [storm-core-0.10.0.jar:0.10.0] at org.apache.storm.shade.org.jboss.netty.util.internal.DeadLockProofWorker$1.run(DeadLockProofWorker.java:42) [storm-core-0.10.0.jar:0.10.0] at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145) [?:1.7.0_80] at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615) [?:1.7.0_80] at java.lang.Thread.run(Thread.java:745) [?:1.7.0_80] 2016-09-07 10:16:35.660 b.s.m.n.Client [ERROR] connection attempt 33 to Netty-Client-wyzjd02/172.18.2.5:6704 failed: java.net.ConnectException: Connection refused: wyzjd02/172.18.2.5:6704 2016-09-07 10:16:36.160 b.s.m.n.Client [ERROR] connection attempt 34 to Netty-Client-wyzjd02/172.18.2.5:6704 failed: java.net.ConnectException: Connection refused: wyzjd02/172.18.2.5:6704 2016-09-07 10:16:36.661 b.s.m.n.Client [ERROR] connection attempt 35 to Netty-Client-wyzjd02/172.18.2.5:6704 failed: java.net.ConnectException: Connection refused: wyzjd02/172.18.2.5:6704 2016-09-07 10:16:37.160 b.s.m.n.Client [ERROR] connection attempt 36 to Netty-Client-wyzjd02/172.18.2.5:6704 failed: java.net.ConnectException: Connection refused: wyzjd02/172.18.2.5:6704 2016-09-07 10:16:37.661 b.s.m.n.Client [ERROR] connection attempt 37 to Netty-Client-wyzjd02/172.18.2.5:6704 failed: java.net.ConnectException: Connection refused: wyzjd02/172.18.2.5:6704
spring cloud gateway收到请求后报Only one connection receive subscriber allowed
## 代码框架 前端代码采用vuejs框架,并且使用了proxymiddlware做代理 服务端代码采用springboot编写并使用了consul服务发现、spring cloudg ateway做网关。 现在的情况是这样,可以通过网关访问后台的swagger-api页面,并且可以正常发送请求测试,返回也正常,但是当在前端配置好网关调用后,从前端页面发送请求后页面直接显示连接失败,spring cloud gateway服务报java.lang.IllegalStateException: Only one connection receive subscriber allowed,从网上搜索后大概意思是请求body只能被获取一次,下面是完整异常 ``` 2018-09-20 10:30:54.952 ERROR 13772 --- [ctor-http-nio-2] .a.w.r.e.DefaultErrorWebExceptionHandler : Failed to handle request [POST http://127.0.0.1:8088/gacenter/api/v1/login] java.lang.IllegalStateException: Only one connection receive subscriber allowed. at reactor.ipc.netty.channel.FluxReceive.startReceiver(FluxReceive.java:279) ~[reactor-netty-0.7.9.RELEASE.jar:0.7.9.RELEASE] at reactor.ipc.netty.channel.FluxReceive.lambda$subscribe$2(FluxReceive.java:129) ~[reactor-netty-0.7.9.RELEASE.jar:0.7.9.RELEASE] at io.netty.util.concurrent.AbstractEventExecutor.safeExecute$$$capture(AbstractEventExecutor.java:163) ~[netty-common-4.1.29.Final.jar:4.1.29.Final] at io.netty.util.concurrent.AbstractEventExecutor.safeExecute(AbstractEventExecutor.java) ~[netty-common-4.1.29.Final.jar:4.1.29.Final] at io.netty.util.concurrent.SingleThreadEventExecutor.runAllTasks(SingleThreadEventExecutor.java:404) ~[netty-common-4.1.29.Final.jar:4.1.29.Final] at io.netty.channel.nio.NioEventLoop.run(NioEventLoop.java:446) ~[netty-transport-4.1.29.Final.jar:4.1.29.Final] at io.netty.util.concurrent.SingleThreadEventExecutor$5.run(SingleThreadEventExecutor.java:884) ~[netty-common-4.1.29.Final.jar:4.1.29.Final] at java.lang.Thread.run(Thread.java:745) ~[na:1.8.0_60] ``` 那位大神遇到过这个问题,路过还请留名
redis报错 有大神遇到过么
2018.11.09 at 17:51:45.533 CST [lettuce-nioEventLoop-3-4] WARN io.netty.util.internal.logging.Slf4JLogger 141 warn - [/192.168.1.103:55005 -> /192.168.1.101:6379] Unexpected exception during request: java.lang.NullPointerException java.lang.NullPointerException: null at com.lambdaworks.redis.protocol.RedisStateMachine.safeSet(RedisStateMachine.java:195) ~[lettuce-3.5.0.Final.jar:?] at com.lambdaworks.redis.protocol.RedisStateMachine.decode(RedisStateMachine.java:161) ~[lettuce-3.5.0.Final.jar:?] at com.lambdaworks.redis.protocol.RedisStateMachine.decode(RedisStateMachine.java:61) ~[lettuce-3.5.0.Final.jar:?] at com.lambdaworks.redis.pubsub.PubSubCommandHandler.decode(PubSubCommandHandler.java:60) ~[lettuce-3.5.0.Final.jar:?] at com.lambdaworks.redis.protocol.CommandHandler.channelRead(CommandHandler.java:153) ~[lettuce-3.5.0.Final.jar:?] at io.netty.channel.AbstractChannelHandlerContext.invokeChannelRead(AbstractChannelHandlerContext.java:333) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.channel.AbstractChannelHandlerContext.fireChannelRead(AbstractChannelHandlerContext.java:319) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.channel.ChannelInboundHandlerAdapter.channelRead(ChannelInboundHandlerAdapter.java:86) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.channel.AbstractChannelHandlerContext.invokeChannelRead(AbstractChannelHandlerContext.java:333) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.channel.AbstractChannelHandlerContext.fireChannelRead(AbstractChannelHandlerContext.java:319) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.channel.ChannelInboundHandlerAdapter.channelRead(ChannelInboundHandlerAdapter.java:86) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.channel.AbstractChannelHandlerContext.invokeChannelRead(AbstractChannelHandlerContext.java:333) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.channel.AbstractChannelHandlerContext.fireChannelRead(AbstractChannelHandlerContext.java:319) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.channel.ChannelInboundHandlerAdapter.channelRead(ChannelInboundHandlerAdapter.java:86) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.channel.AbstractChannelHandlerContext.invokeChannelRead(AbstractChannelHandlerContext.java:333) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.channel.AbstractChannelHandlerContext.fireChannelRead(AbstractChannelHandlerContext.java:319) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.channel.DefaultChannelPipeline.fireChannelRead(DefaultChannelPipeline.java:787) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.channel.nio.AbstractNioByteChannel$NioByteUnsafe.read(AbstractNioByteChannel.java:130) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.channel.nio.NioEventLoop.processSelectedKey(NioEventLoop.java:511) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.channel.nio.NioEventLoop.processSelectedKeysOptimized(NioEventLoop.java:468) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.channel.nio.NioEventLoop.processSelectedKeys(NioEventLoop.java:382) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.channel.nio.NioEventLoop.run(NioEventLoop.java:354) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.util.concurrent.SingleThreadEventExecutor$2.run(SingleThreadEventExecutor.java:116) [netty-all-4.0.24.Final.jar:4.0.24.Final] at io.netty.util.concurrent.DefaultThreadFactory$DefaultRunnableDecorator.run(DefaultThreadFactory.java:137) [netty-all-4.0.24.Final.jar:4.0.24.Final] at java.lang.Thread.run(Thread.java:722) [?:1.7.0_17]
需求: MQ+ netty 做 集群推送服务
通过MQ 广播 消息 ,多个netty 消费mq消息,然后通过 channal 推动, 想问一下,这种情况下 客户端 怎么分配netty对应的ip:端口 ? 或者有没有更好的方案推荐下,谢谢。
连接redis报错Can't connect to master: redis://172.17.111.181:7033 with slot ranges: [[10923-16383]]
1.环境:<br> springboot2 + redisson3.8.2 + redis4.0.2集群模式 2.redisson采用yml配置 如下: ``` clusterServersConfig: idleConnectionTimeout: 10000 pingTimeout: 1000 connectTimeout: 10000 timeout: 3000 retryAttempts: 3 retryInterval: 1500 failedSlaveReconnectionInterval: 3000 failedSlaveCheckInterval: 3000 password: null subscriptionsPerConnection: 5 clientName: null loadBalancer: !<org.redisson.connection.balancer.RoundRobinLoadBalancer> {} slaveSubscriptionConnectionMinimumIdleSize: 1 slaveSubscriptionConnectionPoolSize: 10 slaveConnectionMinimumIdleSize: 3 slaveConnectionPoolSize: 7 masterConnectionMinimumIdleSize: 3 masterConnectionPoolSize: 7 readMode: "MASTER_SLAVE" nodeAddresses: - "redis://39.106.*.*:7033" - "redis://39.106.*.*:7032" - "redis://39.106.*.*:7031" - "redis://39.106.*.*:7034" - "redis://39.106.*.*:7035" - "redis://39.106.*.*:7036" scanInterval: 1000 threads: 0 nettyThreads: 0 codec: !<org.redisson.codec.JsonJacksonCodec> {} transportMode: "NIO" ``` **3. 链接时报错信息** ``` 2019-07-30 12:26:31.142 INFO 8592 --- [isson-netty-1-5] o.r.cluster.ClusterConnectionManager : slaves: [redis://39.106.*.*:7034] added for slot ranges: [[0-5460]] 2019-07-30 12:26:31.142 INFO 8592 --- [isson-netty-1-4] o.r.cluster.ClusterConnectionManager : slaves: [redis://172.17.111.181:7035] added for slot ranges: [[5461-10922]] 2019-07-30 12:26:31.179 INFO 8592 --- [isson-netty-1-3] o.r.c.pool.MasterPubSubConnectionPool : 1 connections initialized for 39.106.*.*/39.106.*.*:7032 2019-07-30 12:26:31.179 INFO 8592 --- [isson-netty-1-1] o.r.c.pool.MasterPubSubConnectionPool : 1 connections initialized for 39.106.*.*/39.106.*.*:7031 2019-07-30 12:26:31.186 INFO 8592 --- [isson-netty-1-5] o.r.cluster.ClusterConnectionManager : master: redis://39.106.*.*:7032 added for slot ranges: [[5461-10922]] 2019-07-30 12:26:31.186 INFO 8592 --- [isson-netty-1-5] o.r.c.pool.MasterConnectionPool : 3 connections initialized for 39.106.*.*/39.106.*.*:7032 2019-07-30 12:26:31.187 INFO 8592 --- [isson-netty-1-8] o.r.cluster.ClusterConnectionManager : master: redis://39.106.*.*:7031 added for slot ranges: [[0-5460]] 2019-07-30 12:26:31.187 INFO 8592 --- [isson-netty-1-8] o.r.c.pool.MasterConnectionPool : 3 connections initialized for 39.106.*.*/39.106.*.*:7031 2019-07-30 12:26:31.208 INFO 8592 --- [isson-netty-1-2] o.r.c.pool.PubSubConnectionPool : 1 connections initialized for 39.106.*.*/39.106.*.*:7034 2019-07-30 12:26:31.209 INFO 8592 --- [isson-netty-1-3] o.r.connection.pool.SlaveConnectionPool : 3 connections initialized for 39.106.*.*/39.106.*.*:7034 2019-07-30 12:26:41.063 ERROR 8592 --- [isson-netty-1-7] o.r.cluster.ClusterConnectionManager : Can't connect to master: redis://172.17.111.181:7033 with slot ranges: [[10923-16383]] 2019-07-30 12:26:43.264 WARN 8592 --- [ main] o.s.w.c.s.GenericWebApplicationContext : Exception encountered during context initialization - cancelling refresh attempt: org.springframework.beans.factory.UnsatisfiedDependencyException: Error creating bean with name 'redisClusterService': Unsatisfied dependency expressed through field 'redissonClient'; nested exception is org.springframework.beans.factory.BeanCreationException: Error creating bean with name 'redisson' defined in class path resource [com/qiriver/tools/monkey/distributed/redis/RedisConfiguration.class]: Bean instantiation via factory method failed; nested exception is org.springframework.beans.BeanInstantiationException: Failed to instantiate [org.redisson.api.RedissonClient]: Factory method 'redisson' threw exception; nested exception is org.redisson.client.RedisConnectionException: Not all slots are covered! Only 10923 slots are avaliable 2019-07-30 12:26:43.264 INFO 8592 --- [ main] j.LocalContainerEntityManagerFactoryBean : Closing JPA EntityManagerFactory for persistence unit 'default' ``` **7031 7032 7033 是主节点 连接不上的节点是yml配置中第一个节点。如果将7031放在配置第一行,报错将会是连不上第一个节点** *.*是我服务器的ip 有谁遇到过这个问题吗
netty消息转发中client端循环推送的问题
接触netty不久,开发时遇到一个问题,求帮忙 流程:page——> java ——> 第三方server ——>java——>page 单写client向第三方循环发送没有问题,该处打印ctx.channel [id: 0x5916337a, L:/xxx.xxx.x.xxx:55041 - R:/xxx.xxx.x.xxx:4002] ``` public void run(String host, int port) throws Exception { EventLoopGroup group = new NioEventLoopGroup(); try { Bootstrap bootstrap = new Bootstrap().group(group).channel(NioSocketChannel.class); // 有数据立即发送 bootstrap.option(ChannelOption.TCP_NODELAY, true); // 保持连接 bootstrap.option(ChannelOption.SO_KEEPALIVE, true); bootstrap.handler(new ChannelInitializer<SocketChannel>() { @Override public void initChannel(SocketChannel ch) throws Exception { // 自定义解码工具(含拆包粘包处理) ch.pipeline().addLast(new SelfDefineEncodeHandler()); // 自定义方法处理 ch.pipeline().addLast(new HttpClientHandler()); } }); Channel channel = bootstrap.connect(host, port).sync().channel(); System.out.println(channel.toString()); while (true) { ByteBuf bytebuf = Unpooled.buffer(1); bytebuf.writeByte(0xff); channel.writeAndFlush(bytebuf); Thread.sleep(10000); } } catch (Exception e) { e.printStackTrace(); } finally { group.shutdownGracefully(); } } ``` 我先写一个server端接收page传过来的请求 ``` public void run(int port) throws Exception { EventLoopGroup bossGroup = new NioEventLoopGroup(); EventLoopGroup workerGroup = new NioEventLoopGroup(); try { ServerBootstrap b = new ServerBootstrap(); b.group(bossGroup, workerGroup).channel(NioServerSocketChannel.class) .childHandler(new ChannelInitializer<SocketChannel>() { @Override protected void initChannel(SocketChannel ch) throws Exception { ChannelPipeline pipeline = ch.pipeline(); pipeline.addLast("http-codec", new HttpServerCodec()); pipeline.addLast("aggregator", new HttpObjectAggregator(65536)); pipeline.addLast("http-chunked", new ChunkedWriteHandler()); pipeline.addLast("handler", new DataServerHandler()); } }); Channel ch = b.bind(port).sync().channel(); ch.closeFuture().sync(); } finally { bossGroup.shutdownGracefully(); workerGroup.shutdownGracefully(); } } ``` 然后再 DataServerHandler中的channelRead0中嵌入了netty的client端 ``` // 把外层channel的eventLoop挂接在内层上 Bootstrap bootstrap = new Bootstrap().group(ctx.channel().eventLoop()).channel(NioSocketChannel.class); // 有数据立即发送 bootstrap.option(ChannelOption.TCP_NODELAY, true); // 保持连接 bootstrap.option(ChannelOption.SO_KEEPALIVE, true); bootstrap.handler(new ChannelInitializer<SocketChannel>() { @Override protected void initChannel(SocketChannel ch) throws Exception { // 自定义解码工具(含拆包粘包处理) ch.pipeline().addLast(new SelfDefineEncodeHandler()); // 自定义方法处理 ch.pipeline().addLast(new ChannelInboundHandlerAdapter() { // 内层建立的连接,从这里接收内层的应答,在这里是服务端的应答 @Override public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception { //... } @Override public void channelActive(ChannelHandlerContext ctx) throws Exception { super.channelActive(ctx); } }); } }); connectFuture = bootstrap.connect("xxx.xxx.x.xxx", 7789); System.out.println(connectFuture.channel().toString()); while(true){ ByteBuf bytebuf = Unpooled.buffer(1); bytebuf.writeByte(0xff); connectFuture.channel().writeAndFlush(bytebuf); System.out.println("发送请求"); Thread.sleep(10000); } ``` 因为要向connectFuture连接的路径发送,所以调用connectFuture.channel(),但是该处拿到的connectFuture.channel()为[id: 0x71e6e0dc],因此在测试工具中并没有收到ff的消息 将循环写到channelActive以后,测试工具可以不停的接收传过来的ff,但是java无法接收返回的消息 ``` @Override public void channelActive(ChannelHandlerContext ctx) throws Exception { // outerCnl = ctx.channel(); System.out.println(ctx.channel().toString()); while (true) { ByteBuf bytebuf = Unpooled.buffer(1); bytebuf.writeByte(0xff); ctx.channel().writeAndFlush(bytebuf); Thread.sleep(10000); } // super.channelActive(ctx); } ``` 如果未使用循环,返回的信息可以正确的接收解析并传送给page 刚接触netty,有些东西不太懂,有人有过类似的错误么,望解答
Netty channelActive 触发发送信息到客户端问题
public class WebSocketFrameHandler extends SimpleChannelInboundHandler<WebSocketFrame> { @Override public void channelActive(ChannelHandlerContext ctx) throws Exception { new Thread(()-> ctx.channel().writeAndFlush(new TextWebSocketFrame("I am channel active"))).start(); } } 像上面那样写可以发送数据到客户端,但是 ctx.channel().writeAndFlush(new TextWebSocketFrame("I am server")); 这样写不可以发送,请问是什么问题? netty 版本: <dependency> <groupId>io.netty</groupId> <artifactId>netty-all</artifactId> <version>4.1.27.Final</version> </dependency>
java socket客户端连接基于netty4的服务端连接成功后如何接受到服务的响应数据?
在client连接netty4服务器后,能够发送数据,并且服务器也能够接受到,但是返回消息时,client无法接收; 在使用while(true)后只能持续发送消息,无法读取服务端返回的消息。
netty5怎么同时监听多个端口
netty5 怎么同时监听843和一个其他端口呢,如843和9229这两个端口,有没有具体的代码呢?谢谢
netty ssl加密传输自动断开
netty的客户端和服务端已经完成ssl认证,传输数据4-5次以后自动断开,请各位帮忙看看哪有问题,下面是代码和异常 客户端: 1. 注册client的handler部分代码: SSLEngine sse = client_context.createSSLEngine(); sse.setUseClientMode(true); sc.pipeline().addLast(new ClientOutboundHandler()) .addLast(new SslHandler(sse)) // .addLast(new IdleStateHandler(30, 30, 0, // TimeUnit.SECONDS)) // .addLast(new HeartBeatHandler()) // .addLast(new ClientCodec()) .addLast(new ClientInboundHandler()) .addLast(new ClientLogicHandler()); 2. ClientInboundHandler中发送数据代码: @Override public void userEventTriggered(ChannelHandlerContext ctx, Object evt) { if (evt instanceof SslHandshakeCompletionEvent) {// 测试ssl加密传输数据 logger.info("client's ssl connection was complated"); ClientSendHeartbeatTask csht = new ClientSendHeartbeatTask(ctx); Thread heartbeatThread = new Thread(csht); heartbeatThread.start(); ClientSendDataTask csdt = new ClientSendDataTask(ctx); Thread dataThread = new Thread(csdt); dataThread.start(); } } 3. 其中ClientSendDataTask的代码如下: @Override public void run() { while (true) { ByteBuf buff = Unpooled.buffer(); String str = JSONArray.fromObject(etlservice.getEtlTablePojos()).toString(); NioMessage nm = new NioMessage(); nm.setType(Constance.DEMODATA_MSG_TYPE); nm.setJson(str); String jsonStr = JacksonUtil.getJsonStr(nm); buff.writeInt(jsonStr.getBytes().length).writeBytes(jsonStr.getBytes()); ctx.writeAndFlush(buff); // buff.clear(); // buff.release(); logger.info("client ClientSendDataTask : send data msg to server"); try { Thread.sleep(10000); } catch (InterruptedException e) { e.printStackTrace(); } } } 4. server端注册handler代码: SSLEngine sse = server_context.createSSLEngine(); sse.setNeedClientAuth(true); sse.setUseClientMode(false); sc.pipeline().addLast(new ServerOutboundHandler()) .addLast(new SslHandler(sse)) // .addLast(new IdleStateHandler(30, 30, // 0,TimeUnit.SECONDS)) // .addLast(new HeartBeatHandler()) // .addLast(new ServerCodec()) .addLast(new ServerInboundHandler()) .addLast(new ServerLogicHandler()); 5. ServerInboundHandler中处理接收的数据代码: @Override public void channelRead(ChannelHandlerContext ctx, Object msg) { NioMessage nm = NettyUtil.getNioMessage(msg); if (0 == nm.getType()) logger.warn("server channelRead : msg type is zero , throw exception"); try { if (Constance.HEARTBEAT_MSG_TYPE == nm.getType()) { logger.info("server channelRead : heartbeat msg"); HeartBeatEntity hb = JacksonUtil.getObjMapper().readValue(nm.getJson(), HeartBeatEntity.class); ctx.fireChannelRead(hb); } else if (Constance.DEMODATA_MSG_TYPE == nm.getType()) { logger.info("server channelRead : data msg"); // List<EtlTablePojo> pojoList = (List<EtlTablePojo>) // JacksonUtil.getObjMapper().readValue(nm.getJson(), // List.class); System.out.println("=====json is : " + nm.getJson()); ctx.fireChannelRead(nm.getJson()); } else if (Constance.RESULT_MSG_TYPE == nm.getType()) { logger.info("server channelRead : operation result msg"); ResultEntity re = JacksonUtil.getObjMapper().readValue(nm.getJson(), ResultEntity.class); re.toString(); } } catch (JsonParseException e) { e.printStackTrace(); } catch (JsonMappingException e) { e.printStackTrace(); } catch (IOException e) { e.printStackTrace(); } } 6. 运行一段时间后出现错误如下: [nioEventLoopGroup-14-1] DEBUG io.netty.handler.ssl.SslHandler - Swallowing a harmless 'connection reset by peer / broken pipe' error that occurred while writing close_notify in response to the peer's close_notify java.io.IOException: Connection reset by peer at sun.nio.ch.FileDispatcher.read0(Native Method) ~[na:1.6.0_65] at sun.nio.ch.SocketDispatcher.read(SocketDispatcher.java:21) ~[na:1.6.0_65] at sun.nio.ch.IOUtil.readIntoNativeBuffer(IOUtil.java:198) ~[na:1.6.0_65] at sun.nio.ch.IOUtil.read(IOUtil.java:166) ~[na:1.6.0_65] at sun.nio.ch.SocketChannelImpl.read(SocketChannelImpl.java:245) ~[na:1.6.0_65] at io.netty.buffer.UnpooledUnsafeDirectByteBuf.setBytes(UnpooledUnsafeDirectByteBuf.java:436) ~[netty-all-4.0.11.Final.jar:na] at io.netty.buffer.AbstractByteBuf.writeBytes(AbstractByteBuf.java:870) ~[netty-all-4.0.11.Final.jar:na] at io.netty.channel.socket.nio.NioSocketChannel.doReadBytes(NioSocketChannel.java:208) ~[netty-all-4.0.11.Final.jar:na] at io.netty.channel.nio.AbstractNioByteChannel$NioByteUnsafe.read(AbstractNioByteChannel.java:88) ~[netty-all-4.0.11.Final.jar:na] at io.netty.channel.nio.NioEventLoop.processSelectedKey(NioEventLoop.java:485) [netty-all-4.0.11.Final.jar:na] at io.netty.channel.nio.NioEventLoop.processSelectedKeysOptimized(NioEventLoop.java:452) [netty-all-4.0.11.Final.jar:na] at io.netty.channel.nio.NioEventLoop.run(NioEventLoop.java:346) [netty-all-4.0.11.Final.jar:na] at io.netty.util.concurrent.SingleThreadEventExecutor$2.run(SingleThreadEventExecutor.java:101) [netty-all-4.0.11.Final.jar:na] at java.lang.Thread.run(Thread.java:695) [na:1.6.0_65]
使用netty5,收消息和发消息是同一个线程吗
现在的问题是,我作为客户端通过netty连接一个服务端,接收到服务端的消息后,不开新线程,处理消息是串行的。这个没问题,但是我发消息也发不出去?这个不应该吧,难道netty的收消息和发消息使用的是同一个线程?
Netty实现连接池,同一连接2次发送消息问题,第二次失败
想要实现一个netty连接池,用于管理所有的连接,在启动程序时,new Client(),并且将这些client 缓存在map中,但是发现,当从中取一个连接进行消息发送,第一次发送成功了,发送消息时没有关闭client,当再取这个连接时,发送失败,进入到了channelInActive()中,同时发现 channel.isActive()==false.不知道这是什么原因。不知道有什么好的方式解决或实现连接池。在线等。
netty服务端怎么打印与其连接的客户端的id?
netty服务端怎么打印与其连接的客户端的id?netty服务端怎么打印与其连接的客户端的id?netty服务端怎么打印与其连接的客户端的id?
爬虫福利二 之 妹子图网MM批量下载
爬虫福利一:27报网MM批量下载    点击 看了本文,相信大家对爬虫一定会产生强烈的兴趣,激励自己去学习爬虫,在这里提前祝:大家学有所成! 目标网站:妹子图网 环境:Python3.x 相关第三方模块:requests、beautifulsoup4 Re:各位在测试时只需要将代码里的变量 path 指定为你当前系统要保存的路径,使用 python xxx.py 或IDE运行即可。
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 顺便拉下票,我在参加csdn博客之星竞选,欢迎投票支持,每个QQ或者微信每天都可以投5票,扫二维码即可,http://m234140.nofollow.ax.
比特币原理详解
一、什么是比特币 比特币是一种电子货币,是一种基于密码学的货币,在2008年11月1日由中本聪发表比特币白皮书,文中提出了一种去中心化的电子记账系统,我们平时的电子现金是银行来记账,因为银行的背后是国家信用。去中心化电子记账系统是参与者共同记账。比特币可以防止主权危机、信用风险。其好处不多做赘述,这一层面介绍的文章很多,本文主要从更深层的技术原理角度进行介绍。 二、问题引入 假设现有4个人...
程序员接私活怎样防止做完了不给钱?
首先跟大家说明一点,我们做 IT 类的外包开发,是非标品开发,所以很有可能在开发过程中会有这样那样的需求修改,而这种需求修改很容易造成扯皮,进而影响到费用支付,甚至出现做完了项目收不到钱的情况。 那么,怎么保证自己的薪酬安全呢? 我们在开工前,一定要做好一些证据方面的准备(也就是“讨薪”的理论依据),这其中最重要的就是需求文档和验收标准。一定要让需求方提供这两个文档资料作为开发的基础。之后开发
网页实现一个简单的音乐播放器(大佬别看。(⊙﹏⊙))
今天闲着无事,就想写点东西。然后听了下歌,就打算写个播放器。 于是乎用h5 audio的加上js简单的播放器完工了。 欢迎 改进 留言。 演示地点跳到演示地点 html代码如下`&lt;!DOCTYPE html&gt; &lt;html&gt; &lt;head&gt; &lt;title&gt;music&lt;/title&gt; &lt;meta charset="utf-8"&gt
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。 1. for - else 什么?不是 if 和 else 才
数据库优化 - SQL优化
前面一篇文章从实例的角度进行数据库优化,通过配置一些参数让数据库性能达到最优。但是一些“不好”的SQL也会导致数据库查询变慢,影响业务流程。本文从SQL角度进行数据库优化,提升SQL运行效率。 判断问题SQL 判断SQL是否有问题时可以通过两个表象进行判断: 系统级别表象 CPU消耗严重 IO等待严重 页面响应时间过长
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 c/c++ 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7
通俗易懂地给女朋友讲:线程池的内部原理
餐厅的约会 餐盘在灯光的照耀下格外晶莹洁白,女朋友拿起红酒杯轻轻地抿了一小口,对我说:“经常听你说线程池,到底线程池到底是个什么原理?”我楞了一下,心里想女朋友今天是怎么了,怎么突然问出这么专业的问题,但做为一个专业人士在女朋友面前也不能露怯啊,想了一下便说:“我先给你讲讲我前同事老王的故事吧!” 大龄程序员老王 老王是一个已经北漂十多年的程序员,岁数大了,加班加不动了,升迁也无望,于是拿着手里
经典算法(5)杨辉三角
杨辉三角 是经典算法,这篇博客对它的算法思想进行了讲解,并有完整的代码实现。
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹
面试官:你连RESTful都不知道我怎么敢要你?
面试官:了解RESTful吗? 我:听说过。 面试官:那什么是RESTful? 我:就是用起来很规范,挺好的 面试官:是RESTful挺好的,还是自我感觉挺好的 我:都挺好的。 面试官:… 把门关上。 我:… 要干嘛?先关上再说。 面试官:我说出去把门关上。 我:what ?,夺门而去 文章目录01 前言02 RESTful的来源03 RESTful6大原则1. C-S架构2. 无状态3.统一的接
JDK12 Collectors.teeing 你真的需要了解一下
前言 在 Java 12 里面有个非常好用但在官方 JEP 没有公布的功能,因为它只是 Collector 中的一个小改动,它的作用是 merge 两个 collector 的结果,这句话显得很抽象,老规矩,我们先来看个图(这真是一个不和谐的图????): 管道改造经常会用这个小东西,通常我们叫它「三通」,它的主要作用就是将 downstream1 和 downstre...
为啥国人偏爱Mybatis,而老外喜欢Hibernate/JPA呢?
关于SQL和ORM的争论,永远都不会终止,我也一直在思考这个问题。昨天又跟群里的小伙伴进行了一番讨论,感触还是有一些,于是就有了今天这篇文。 声明:本文不会下关于Mybatis和JPA两个持久层框架哪个更好这样的结论。只是摆事实,讲道理,所以,请各位看官勿喷。 一、事件起因 关于Mybatis和JPA孰优孰劣的问题,争论已经很多年了。一直也没有结论,毕竟每个人的喜好和习惯是大不相同的。我也看
SQL-小白最佳入门sql查询一
不要偷偷的查询我的个人资料,即使你再喜欢我,也不要这样,真的不好;
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // doshom...
【图解经典算法题】如何用一行代码解决约瑟夫环问题
约瑟夫环问题算是很经典的题了,估计大家都听说过,然后我就在一次笔试中遇到了,下面我就用 3 种方法来详细讲解一下这道题,最后一种方法学了之后保证让你可以让你装逼。 问题描述:编号为 1-N 的 N 个士兵围坐在一起形成一个圆圈,从编号为 1 的士兵开始依次报数(1,2,3…这样依次报),数到 m 的 士兵会被杀死出列,之后的士兵再从 1 开始报数。直到最后剩下一士兵,求这个士兵的编号。 1、方...
致 Python 初学者
欢迎来到“Python进阶”专栏!来到这里的每一位同学,应该大致上学习了很多 Python 的基础知识,正在努力成长的过程中。在此期间,一定遇到了很多的困惑,对未来的学习方向感到迷茫。我非常理解你们所面临的处境。我从2007年开始接触 python 这门编程语言,从2009年开始单一使用 python 应对所有的开发工作,直至今天。回顾自己的学习过程,也曾经遇到过无数的困难,也曾经迷茫过、困惑过。开办这个专栏,正是为了帮助像我当年一样困惑的 Python 初学者走出困境、快速成长。希望我的经验能真正帮到你
“狗屁不通文章生成器”登顶GitHub热榜,分分钟写出万字形式主义大作
一、垃圾文字生成器介绍 最近在浏览GitHub的时候,发现了这样一个骨骼清奇的雷人项目,而且热度还特别高。 项目中文名:狗屁不通文章生成器 项目英文名:BullshitGenerator 根据作者的介绍,他是偶尔需要一些中文文字用于GUI开发时测试文本渲染,因此开发了这个废话生成器。但由于生成的废话实在是太过富于哲理,所以最近已经被小伙伴们给玩坏了。 他的文风可能是这样的: 你发现,...
程序员:我终于知道post和get的区别
是一个老生常谈的话题,然而随着不断的学习,对于以前的认识有很多误区,所以还是需要不断地总结的,学而时习之,不亦说乎
GitHub标星近1万:只需5秒音源,这个网络就能实时“克隆”你的声音
作者 | Google团队 译者 | 凯隐 编辑 | Jane 出品 | AI科技大本营(ID:rgznai100) 本文中,Google 团队提出了一种文本语音合成(text to speech)神经系统,能通过少量样本学习到多个不同说话者(speaker)的语音特征,并合成他们的讲话音频。此外,对于训练时网络没有接触过的说话者,也能在不重新训练的情况下,仅通过未知...
《程序人生》系列-这个程序员只用了20行代码就拿了冠军
你知道的越多,你不知道的越多 点赞再看,养成习惯GitHub上已经开源https://github.com/JavaFamily,有一线大厂面试点脑图,欢迎Star和完善 前言 这一期不算《吊打面试官》系列的,所有没前言我直接开始。 絮叨 本来应该是没有这期的,看过我上期的小伙伴应该是知道的嘛,双十一比较忙嘛,要值班又要去帮忙拍摄年会的视频素材,还得搞个程序员一天的Vlog,还要写BU...
加快推动区块链技术和产业创新发展,2019可信区块链峰会在京召开
11月8日,由中国信息通信研究院、中国通信标准化协会、中国互联网协会、可信区块链推进计划联合主办,科技行者协办的2019可信区块链峰会将在北京悠唐皇冠假日酒店开幕。   区块链技术被认为是继蒸汽机、电力、互联网之后,下一代颠覆性的核心技术。如果说蒸汽机释放了人类的生产力,电力解决了人类基本的生活需求,互联网彻底改变了信息传递的方式,区块链作为构造信任的技术有重要的价值。   1...
程序员把地府后台管理系统做出来了,还有3.0版本!12月7号最新消息:已在开发中有github地址
第一幕:缘起 听说阎王爷要做个生死簿后台管理系统,我们派去了一个程序员…… 996程序员做的梦: 第一场:团队招募 为了应对地府管理危机,阎王打算找“人”开发一套地府后台管理系统,于是就在地府总经办群中发了项目需求。 话说还是中国电信的信号好,地府都是满格,哈哈!!! 经常会有外行朋友问:看某网站做的不错,功能也简单,你帮忙做一下? 而这次,面对这样的需求,这个程序员...
网易云6亿用户音乐推荐算法
网易云音乐是音乐爱好者的集聚地,云音乐推荐系统致力于通过 AI 算法的落地,实现用户千人千面的个性化推荐,为用户带来不一样的听歌体验。 本次分享重点介绍 AI 算法在音乐推荐中的应用实践,以及在算法落地过程中遇到的挑战和解决方案。 将从如下两个部分展开: AI算法在音乐推荐中的应用 音乐场景下的 AI 思考 从 2013 年 4 月正式上线至今,网易云音乐平台持续提供着:乐屏社区、UGC...
【技巧总结】位运算装逼指南
位算法的效率有多快我就不说,不信你可以去用 10 亿个数据模拟一下,今天给大家讲一讲位运算的一些经典例子。不过,最重要的不是看懂了这些例子就好,而是要在以后多去运用位运算这些技巧,当然,采用位运算,也是可以装逼的,不信,你往下看。我会从最简单的讲起,一道比一道难度递增,不过居然是讲技巧,那么也不会太难,相信你分分钟看懂。 判断奇偶数 判断一个数是基于还是偶数,相信很多人都做过,一般的做法的代码如下...
【管理系统课程设计】美少女手把手教你后台管理
【文章后台管理系统】URL设计与建模分析+项目源码+运行界面 栏目管理、文章列表、用户管理、角色管理、权限管理模块(文章最后附有源码) 1. 这是一个什么系统? 1.1 学习后台管理系统的原因 随着时代的变迁,现如今各大云服务平台横空出世,市面上有许多如学生信息系统、图书阅读系统、停车场管理系统等的管理系统,而本人家里就有人在用烟草销售系统,直接在网上完成挑选、购买与提交收货点,方便又快捷。 试想,若没有烟草销售系统,本人家人想要购买烟草,还要独自前往药...
4G EPS 第四代移动通信系统
目录 文章目录目录4G 与 LTE/EPCLTE/EPC 的架构E-UTRANE-UTRAN 协议栈eNodeBEPCMMES-GWP-GWHSSLTE/EPC 协议栈概览 4G 与 LTE/EPC 4G,即第四代移动通信系统,提供了 3G 不能满足的无线网络宽带化,主要提供数据(上网)业务。而 LTE(Long Term Evolution,长期演进技术)是电信领域用于手机及数据终端的高速无线通...
相关热词 如何提升c#开发能力 矩阵乘法c# c#调用谷歌浏览器 c# 去空格去转义符 c#用户登录窗体代码 c# 流 c# linux 可视化 c# mvc 返回图片 c# 像素空间 c# 日期 最后一天
立即提问