环境:
kafka版本:2-12.2.6.3
spark版本:3.2.4
利用pycharm远程虚拟环境,python=3.7
Structured Streaming连接kafka
请问为什么spark消费kafka一直报错:
Caused by: java.lang.NoSuchMethodError: org.apache.spark.sql.kafka010.consumer.InternalKafkaConsumerPool$PoolConfig.setEvictionPolicy(Lorg/apache/commons/pool2/impl/EvictionPolicy;)V
百度后的是解决办法:
提交时除了添加spark-sql-kafka和kafka-clients jar包外,还要添加spark-token-provider-kafka和commons-pool jar包,具体为spark-token-provider-kafka-0-10_2.12-3.0.1.jar和commons-pool2-2.6.2.jar
可是我添加jar包后还是报这个错
我是利用PYSPARK_SUBMIT_ARGS=--packages org.apache.spark:spark-sql-kafka-0-10_2.12:3.2.4 pyspark-shell;让他自己下载依赖包的,没有自动下载的,我也手动添加到jars目录中了