HDTLS 2021-07-26 16:00 采纳率: 0%
浏览 49

kafka发送json数据时数据过大导致出现

各位大家好,今天在发送kfk的时候出现一个错误,我自定义了一个字符串数据很小,就2行,发送kfk的时候可以监听到,但是发送大json数据时就会爆unable to write to standard out,closing consumer,这个问题,请问如何解决,发送kfk时配置也写了压缩的方式lz4.

  • 写回答

1条回答 默认 最新

  • CSDN专家-微编程 2021-07-26 16:16
    关注

    从log上来看一目了然,如果要解决当前问题的话,
    减小broker消息体大小(设置message.max.bytes参数);
    增大consumer获取数据信息大小(设置fetch.message.max.bytes参数)。默认broker消息体大小为1000000字节即为1M大小。
    具体的你可以参考这篇文章:https://www.cnblogs.com/wynjauu/articles/9409686.html

    评论

报告相同问题?

问题事件

  • 创建了问题 7月26日

悬赏问题

  • ¥15 12864只亮屏 不显示汉字
  • ¥20 三极管1000倍放大电路
  • ¥15 vscode报错如何解决
  • ¥15 前端vue CryptoJS Aes CBC加密后端java解密
  • ¥15 python随机森林对两个excel表格读取,shap报错
  • ¥15 基于STM32心率血氧监测(OLED显示)相关代码运行成功后烧录成功OLED显示屏不显示的原因是什么
  • ¥100 X轴为分离变量(因子变量),如何控制X轴每个分类变量的长度。
  • ¥30 求给定范围的全体素数p的(p-2)/p的连乘积值
  • ¥15 VFP如何使用阿里TTS实现文字转语音?
  • ¥100 需要跳转番茄畅听app的adb命令