• 全部
  • 关注
  • 有问必答
  • 等你来答

排行榜

  • 用户榜
  • 标签榜
  • 冲榜分奖金

频道

  • 编程语言
  • 后端
  • Python
  • Java
  • 前端
  • 微软技术
  • 大数据
  • 运维
  • 人工智能
  • 服务器
  • 其他
  • 嵌入式
  • 开发工具
  • 数据结构与算法
  • 网络
  • 移动开发
  • 硬件开发
  • 吐槽问答
  • PHP
  • 游戏
  • 测试
  • 小程序
  • 云计算
  • 安全
  • 软件工程
  • 开放平台
  • 设计
  • 职场和发展
  • 区块链
  • 搜索
  • HarmonyOS
  • 多彩生活
  • 产品/运营
  • 设计模式
最新最热精华悬赏待回答 筛选
  • 0

    回答

问题遇到的现象和发生背景 我算的增量聚合,比如以(key,1)以key为单位聚合,实时来一条key会+1,比如增加到(key,10333),下一条突然变成(key,1),(key,2),重头开始加,这

  • flink
  • 5
  • 2022-05-19 10:26
  • 2

    回答

使用flinksql的ddl创建mysql维表,其中还用了lookup缓存,当程序运行一段时间后会报mysql链接失效问题,请问一下有知道怎么解决的吗,万分感谢,报错如下。1、com.mysql.cj

回答 弥生i
采纳率50%
  • 2

public class FlinkSqlTemplateJob{ static { try { Class.forName("com.mysql.cj.jdbc.Driver

  • flink
  • 14
  • 2022-05-08 20:54
至此y
采纳率100%
  • 1

    回答

一、问题 Filnk集群关闭时,bin/stop-cluster.sh 命令没有用 二、关闭时命令行的提示 No taskexecutor daemon to stop on host x.x.xNo

回答 zzk12
采纳率0%
  • 1

    回答

问题遇到的现象和发生背景 flink流写入oracle非常慢,因为流写入使用的是自定的sinkFunction,所以也是用的jdbc,但是效率还不如java效率高 问题相关代码,请勿粘贴截图 ps =

  • 2

    回答

问题遇到的现象和发生背景 我的数据从卡夫卡出来,复杂的json格式,里面含list,我在flink中用stream加工后,存入临时view,然后想通过sql-api插入hive,程序不报错,但就是数据

  • 2

问题遇到的现象和发生背景 我尝试 把 table 环境写在 java TimerTask 中本地可以运行但是提交flink时识别不到 job 问题相关代码,请勿粘贴截图 public stati

  • flink
  • 17
  • 2022-04-24 14:53
m0_37994675
采纳率25%
  • 1

代码逻辑就是很简单的wordcount,监听nc端口,输入单词计次数 本地测试逻辑没问题,但是跑在集群输出会重复 集群环境:(kubernetes部署,standalone-application模式

sinat_27054329
采纳率100%
  • 0

    回答

可以在node1上启动jobmanager,但是无法在node2和node3上启动TaskManager node2上:   node3上:     当我在node2上运行bin/ta

  • 1

问题遇到的现象和发生背景 Session-cluster模式能够正常 RUNNING但是提交任务总是失败 问题相关代码,请勿粘贴截图 [hadoop@master ~]$ yarn-session.s

Heyihongcmr
采纳率66.7%
  • 1

    回答

代码 import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment import org.apache.zookeepe

  • flink
  • 18
  • 2022-04-08 15:38
  • 2

pom.xml 主要配置如下: <dependency> <groupId>org.apache.flink</groupId> &

david_chen1
采纳率100%
  • 2

    回答

问题遇到的现象和发生背景 Flink 源码中的 Fucntion 问题相关代码,请勿粘贴截图 @Publicpublic interface Function extends java.io.Seri

  • 1

    回答

项目中我要做的是,读取一个bin文件,根据指定协议拆解成数个数组。以下是拆解部分的代码。 public static void TboxPacketSpliter(FileInputStream i

回答 Skylpe
采纳率0%
  • 2

    回答

1.出现问题的无法加载的pom的插件 <plugin> <groupId>org.apache.maven.plugins&l

  • 1

问题遇到的现象和发生背景 这里的配置都是静态的类变量,在flink任务开始之前就进行了初始化,然后本地运行是正常的,配置获取也正常,部署到服务器之后,我将配置打印出来,发现配置全部为空 问题相关代码,

  • flink
  • 29
  • 2022-03-22 11:45
  • 2

    回答

有没有人可以帮我跑一下代码 有偿 github找的项目跑不起来 环境部署不好

张德帅,
采纳率0%
  • 3

    回答

问题遇到的现象和发生背景 用Flink SQL连接hive,执行tableEnv.executeSql("insert into table1 select * fromtable2"),本地运行正常

  • 1

    回答

我在1.13.2 版本flink-jdbc源码种增加了关于oracle的处理。两种方案测试都没有生效。第一种:读取oracle源表,写入oralce目标表。(表结构相同) 执行成功,但是结果表

回答 吕梅
采纳率0%
  • 2

    回答

我现在遇到这样一种情况,flink从rabbitmq中消费数据,我先向rabbitmq中写入8万条数据,然后打开flink程序进行消费,flink程序以每秒1万条的速度消费数据,rabbitmq中的数

  • flink
  • 49
  • 2022-02-28 15:14
回答 WaiSaa
采纳率0%
  • 1

    回答

flink消费kafka时出现数据积压,经过查询kafka消费者个别分区出现数据积压,如下图 数据积压的也是在正常消费的

test-abc
采纳率0%
  • 2

https://nightlies.apache.org/flink/flink-docs-release-1.12/zh/dev/table/connectors/jdbc.html上面文档提到的这

RandomEstimate
采纳率100%
  • 1

框架:kafka+flink 1.13.2+postgreSQL 9.4.24+scala+数据库框架slick3.3问题:flink消费kafka数据,如果不写入数据库,从flink收到kafka源

CoderMurphy
采纳率100%
  • 1

    回答

flink sql 怎么求每小时开窗内数据多分组的占比,或者不用SQL也行

回答 微毂
采纳率0%
  • 2

    回答

import org.apache.flink.api.common.restartstrategy.RestartStrategies import org.apache.flink.runtim

回答 微毂
采纳率0%
  • 3

    回答

想问下 flink 设置了watermark, 但我不想数据丢失可以吗。按照常规套路,应该是超过late的就要丢失了。但是假如有时候上游报错,或者kafka问题,或者什么异常问题导致有时一段时间内无法

  • flink
  • 14
  • 2022-01-22 11:51
  • 2

问题遇到的现象和发生背景 使用flink测试连接flink时报错:处理流运算符时出错,不知道是不是程序写错了还是mysql有问题 问题相关代码,请勿粘贴截图 package flink_scala.a

雾.607
采纳率66.7%
  • 1

    回答

情况描述:现需要将flink 窗口处理的结果,存储到map中,使用java 定时器,定时写入redis中。但是上传到flink中执行,map中数据为空。本地测试,均正常 相关代码://Mappubl

  • 1

    回答

问题遇到的现象和发生背景 想把FlinkTableApi代码转为DataStreamApi代码 问题相关代码,请勿粘贴截图 package com.cupdata.bigdata.flink imp

JackieLiu1024
采纳率0%
  • 1

    回答

环境 集群环境CDH6.2.0flink配置文件 jobmanager.rpc.address: localhost jobmanager.rpc.port: 6123 jobmanager.memo