最新最热精华悬赏待回答 筛选
  • 2

    回答

环境信息 • IDEA版本:2025.1 • JDK版本:1.8 • Flink版本:1.17.2 • Scala版本:2.12 • 构建工具:Maven 在IDEA中运行Flink Scal

  • flink
  • 4
  • 2026-01-01 12:07
  • 4

    回答

我有一个由3台服务器组成的Flink集群,用的standalone模式,每个服务器开启了5个slot,一共15个slotFlink集群用来处理试验大数据任务,整个任务时先接收来自Kafka的数据,然后

回答 dk_hero
采纳率33.3%
  • 4

    回答

现在帮我分析一个场景,我现在有三个流,一个流输出请求的日志kafka,一个流接收对方异步回调的消息日志的kafka,另一个流输出使用第一次对方同步返回的id去查询对方信息的日志时kafka,设计一个三

  • flink
  • 3
  • 2025-10-17 11:01
  • 4

    回答

一flinkcdc 遇到的问题1,有点看不懂是什么问题java.lang.RuntimeException: One or more fetchers have encountered excepti

  • flink
  • 14
  • 2025-09-11 17:26
  • 5

    回答

创建的maven项目添加了依赖还是有Cannot resolve overloaded method 'flatMap'和Cannot resolve symbol print问题

  • flink
  • 4
  • 2025-09-10 19:26
2501_92255650
采纳率0%
  • 4

    回答

flink监听mysql的binlog的日志做实时计算,其中有一个任务,表数据只有2万,但是每次checkpoint总是失败,其他的任务没有这种情况: 2025-09-05 09:49:18,724

  • flink
  • 7
  • 2025-09-05 10:12
  • 4

    回答

当我将flink的source中的数据定义为debezium-json 那么我的sink的源是doris 格式怎么设置,才可以将数据正确的解析呢 定义为json的话 是否需要增加参数

  • flink
  • 5
  • 2025-07-28 10:39
  • 6

    回答

您好,想请教下您,我在使用flink cdc从oracle归档日志中同步数据时,由于scn异常增长导致flink程序监听不到数据,等到归档日志删了之后,由于flink还在监听之前的scn区间,该scn

  • 4

    回答

Flinkcdc执行的任务的时候,提示Public Key Retrieval is not allowed,并且我的账号是新建的,测试环境和生产环境完全用一个账号,同样的权限,mysql的生产环境版

  • flink
  • 13
  • 2025-06-18 16:27
  • 4

    回答

Flinkcdc执行的任务的时候,提示Public Key Retrieval is not allowed,并且我的账号是新建的,测试环境和生产环境完全用一个账号,同样的权限,mysql的生产环境版

  • flink
  • 14
  • 2025-06-18 16:22
  • 5

    回答

因为前面学习 在hadoop,hive等组件都使用对java8环境 今天学习flink的时候因为版本是1.13以上的不能使用java8环境,准备使用filnk1.12去学习 某站某谷的flink1.1

  • flink
  • 8
  • 2025-06-15 03:05
回答 T04619
采纳率0%
  • 6

    回答

在安装配置hudi时输入命令“mvn clean package -DskipTests -Dspark2.4.4 -Dflink1.15 -Dscala-2.12 -Dhadoop.version

  • 3

    回答

flink的并行度设置为4,kafka分区设置为10,运行2天之后报错如下,请问怎么处理。flink版本是1.12,kafka版本是3.6 java.io.IOException: Could not

  • 4

    回答

背景:使用flinkcdc同步数据库表里的全量数据 +增量数据,先暂时是全量阶段。 现象:我的表里有84万的数据量,当我使用flinkcdc 来做日志同步历史数据的时候,发现每次都是在Exported

  • flink
  • 12
  • 2025-05-13 16:32
  • 3

    回答

本人尝试用pyspark 连接服务器kafka,尝尽了各种办法,看了所有的aI方法,都是调试不成功,希望会的朋友看看以下代码与报错信息,给予指导,有偿! ``from pyflink.table im

  • 3

    回答

flinkCDC同步binlog的日志, 本来我监听的表有16万多的数据, 程序设置的是 StartupOptions.initial , 但是启动同步的时候,有时候同步到一半就程序暂停了,有时候

  • flink
  • 11
  • 2025-05-09 09:38
  • 4

    回答

Flink 1.19.2 Hive3.1.3 通过Flink SQL建表出现java包报错 通过linux不同用户环境变量配置,Flink为jdk11,hive jdk8 Hive可以正常建库建表,但

  • 3

    回答

./flink run -t yarn-per-job -c去提交任务执行到Job has submitted with JobID之后就开始报错了:拒绝连接(详见图片)

  • 4

    回答

我在一个flink的血缘分析项目中遇到了首次创建JDBCcatalog时报No suitable driver found for jdbc:mysql,但是第二次调用创建接口却正常了,求问各位造成这

回答 Z.C.
采纳率25%
  • 5

    回答

flink 1.19 hive3.1.3版本,从mysql cdc 用kafka向hive同步数据报错,sql没有更新删除操作,并且选了upsert kafka,从插入开始报错。

  • 4

    回答

请用Drools 写一个关联规则,要求如下: 有四个Event事件对象A、B、C、D在时间窗口10秒内到达,且不分先后(乱序)。 class Event { int a; int b;

  • 5

    回答

./bin/flink run -t yarn-session -Dyarn.application.id=application_1739948324774_0016 -Dyarn.provided

  • 4

    回答

Flink CDC 从mysql导数据到paimon(minio) 上出现问题。MAC笔记本。 flink-1.20.1-bin-scala_2.12.tgz flink-cdc-3.3.0-bin.

  • 3

    回答

yarn资源也够 ,代码在软件里面也可以运行成功,怎么解决,求帮助,实在没办法,搞不懂

  • 2

    回答

我使用的是jdk17,在使用flink1.17时,启动报错。 下面是我的代码 package org.dromara.study; import org.apache.flink.api.java.

  • 2

    回答

flink设置的插槽数为18后,重启flink报错,只要设置成16以上就报错;如果设置成16不会出现报错的情况,请问什么原因? 目前服务器的cpu的核心数为32

  • 1

    回答

#遇到问题的现象描述flinkcdc读取sqlserver,通过checkpoint报错#问题相关代码,报错内容 java.lang.AbstractMethodError: Method com/v

  • 2

#遇到问题的现象描述flink读取kafka数据,写入mysql,程序运行一段时间后报错,之后自动重启。出现问题:flink任务自动重启后,kafka还是正常消费,但是不往数据库写数据了。#问题相关代

  • flink
  • 27
  • 2025-01-06 16:30
laijunlin_data
采纳率80%
  • 32

    回答

Flinksql sink oracle不能处理jdbc url报错:LERROR] Could not execute SQL statement. Reason:java. lang. Illeg

yyb19960522
采纳率0%
  • 1

    回答

你好,想咨询下flink的问题,每次start-cluster.sh或机器重启,之前提交的job都没有了,flink为什么这么设计,有什么办法避免么?

  • flink
  • 59
  • 2024-12-26 21:51