版本:pyflink1.10
pyflink使用python udf的时候数据类型定义为DataTypes.TIMESTAMP(),但是执行时被解释为long型,报not match
源码:
@udf(input_types=[DataTypes.INT(), DataTypes.INT(), DataTypes.TIMESTAMP()], result_type=DataTypes.INT())
def add_new(i, j, k):
return i + j #k没用我就是测试一下
报错:
py4j.protocol.Py4JJavaError: An error occurred while calling o80.select.
: org.apache.flink.table.api.ValidationException: Given parameters do not match any signature.
Actual: (java.lang.Integer, java.lang.Integer, java.time.LocalDateTime)
Expected: (int, int, long)
补充:使用kafka数据源,kafka版本为0.11.3
source部分:
st_env.from_path("source") \
.select("a, add_new(b, c, rowtime) as sumbc") \
.insert_into("sink")
schema解析:
.with_schema(
Schema()
.field("a", DataTypes.STRING())
.field("b", DataTypes.INT())
.field("c", DataTypes.INT())
.field("time", DataTypes.TIMESTAMP())
.rowtime(
Rowtime()
.timestamps_from_field("time")
.watermarks_periodic_bounded(60000)
)
)
kafka单条数据样式:
{'a': 'a', 'b': 1, 'c': 1, 'time': '2013-01-01T00:14:13Z'}
或者是哪里写错了吗?请各位指教
另外当使用register_table_source创建表时DataTypes.TIMESTAMP()的类型会显示为java.sql.Timestamp,这种类型不一致会造成问题吗?