- 2
回答
环境信息 • IDEA版本:2025.1 • JDK版本:1.8 • Flink版本:1.17.2 • Scala版本:2.12 • 构建工具:Maven 在IDEA中运行Flink Scal
- flink
- 4
- 2026-01-01 12:07
- 4
回答
我有一个由3台服务器组成的Flink集群,用的standalone模式,每个服务器开启了5个slot,一共15个slotFlink集群用来处理试验大数据任务,整个任务时先接收来自Kafka的数据,然后
- 4
回答
现在帮我分析一个场景,我现在有三个流,一个流输出请求的日志kafka,一个流接收对方异步回调的消息日志的kafka,另一个流输出使用第一次对方同步返回的id去查询对方信息的日志时kafka,设计一个三
- 4
回答
一flinkcdc 遇到的问题1,有点看不懂是什么问题java.lang.RuntimeException: One or more fetchers have encountered excepti
- flink
- 14
- 2025-09-11 17:26
- 5
回答
创建的maven项目添加了依赖还是有Cannot resolve overloaded method 'flatMap'和Cannot resolve symbol print问题
- flink
- 4
- 2025-09-10 19:26
- 4
回答
flink监听mysql的binlog的日志做实时计算,其中有一个任务,表数据只有2万,但是每次checkpoint总是失败,其他的任务没有这种情况: 2025-09-05 09:49:18,724
- flink
- 7
- 2025-09-05 10:12
- 4
回答
当我将flink的source中的数据定义为debezium-json 那么我的sink的源是doris 格式怎么设置,才可以将数据正确的解析呢 定义为json的话 是否需要增加参数
- 6
回答
您好,想请教下您,我在使用flink cdc从oracle归档日志中同步数据时,由于scn异常增长导致flink程序监听不到数据,等到归档日志删了之后,由于flink还在监听之前的scn区间,该scn
- 4
回答
Flinkcdc执行的任务的时候,提示Public Key Retrieval is not allowed,并且我的账号是新建的,测试环境和生产环境完全用一个账号,同样的权限,mysql的生产环境版
- flink
- 13
- 2025-06-18 16:27
- 4
回答
Flinkcdc执行的任务的时候,提示Public Key Retrieval is not allowed,并且我的账号是新建的,测试环境和生产环境完全用一个账号,同样的权限,mysql的生产环境版
- flink
- 14
- 2025-06-18 16:22
- 5
回答
因为前面学习 在hadoop,hive等组件都使用对java8环境 今天学习flink的时候因为版本是1.13以上的不能使用java8环境,准备使用filnk1.12去学习 某站某谷的flink1.1
- 6
回答
- 3
回答
flink的并行度设置为4,kafka分区设置为10,运行2天之后报错如下,请问怎么处理。flink版本是1.12,kafka版本是3.6 java.io.IOException: Could not
- 4
回答
背景:使用flinkcdc同步数据库表里的全量数据 +增量数据,先暂时是全量阶段。 现象:我的表里有84万的数据量,当我使用flinkcdc 来做日志同步历史数据的时候,发现每次都是在Exported
- flink
- 12
- 2025-05-13 16:32
- 3
回答
本人尝试用pyspark 连接服务器kafka,尝尽了各种办法,看了所有的aI方法,都是调试不成功,希望会的朋友看看以下代码与报错信息,给予指导,有偿! ``from pyflink.table im
- 3
回答
flinkCDC同步binlog的日志, 本来我监听的表有16万多的数据, 程序设置的是 StartupOptions.initial , 但是启动同步的时候,有时候同步到一半就程序暂停了,有时候
- flink
- 11
- 2025-05-09 09:38
- 4
回答
Flink 1.19.2 Hive3.1.3 通过Flink SQL建表出现java包报错 通过linux不同用户环境变量配置,Flink为jdk11,hive jdk8 Hive可以正常建库建表,但
- 3
回答
./flink run -t yarn-per-job -c去提交任务执行到Job has submitted with JobID之后就开始报错了:拒绝连接(详见图片)
- 4
回答
我在一个flink的血缘分析项目中遇到了首次创建JDBCcatalog时报No suitable driver found for jdbc:mysql,但是第二次调用创建接口却正常了,求问各位造成这
- 5
回答
flink 1.19 hive3.1.3版本,从mysql cdc 用kafka向hive同步数据报错,sql没有更新删除操作,并且选了upsert kafka,从插入开始报错。
- 4
回答
请用Drools 写一个关联规则,要求如下: 有四个Event事件对象A、B、C、D在时间窗口10秒内到达,且不分先后(乱序)。 class Event { int a; int b;
- 5
回答
- 4
回答
Flink CDC 从mysql导数据到paimon(minio) 上出现问题。MAC笔记本。 flink-1.20.1-bin-scala_2.12.tgz flink-cdc-3.3.0-bin.
- 3
回答
yarn资源也够 ,代码在软件里面也可以运行成功,怎么解决,求帮助,实在没办法,搞不懂
- 2
回答
我使用的是jdk17,在使用flink1.17时,启动报错。 下面是我的代码 package org.dromara.study; import org.apache.flink.api.java.
- 2
回答
flink设置的插槽数为18后,重启flink报错,只要设置成16以上就报错;如果设置成16不会出现报错的情况,请问什么原因? 目前服务器的cpu的核心数为32
- 1
回答
#遇到问题的现象描述flinkcdc读取sqlserver,通过checkpoint报错#问题相关代码,报错内容 java.lang.AbstractMethodError: Method com/v
- 2
#遇到问题的现象描述flink读取kafka数据,写入mysql,程序运行一段时间后报错,之后自动重启。出现问题:flink任务自动重启后,kafka还是正常消费,但是不往数据库写数据了。#问题相关代
- flink
- 27
- 2025-01-06 16:30
- 32
回答
Flinksql sink oracle不能处理jdbc url报错:LERROR] Could not execute SQL statement. Reason:java. lang. Illeg
- 1
回答
你好,想咨询下flink的问题,每次start-cluster.sh或机器重启,之前提交的job都没有了,flink为什么这么设计,有什么办法避免么?
- flink
- 59
- 2024-12-26 21:51