kc32668287 2023-12-14 09:08 采纳率: 29.3%
浏览 9
已结题

EFK如何批量下载分析文件

EFK如何批量下载分析文件
软件:kibana:8.1.0 ,elasticsearch:8.1.0 docker安装的
平时是按照如下如所示进行下载的,因为要下载的文件非常多,耗时非常长,想找一种可以批量下载的方法,尝试过用DM软件进行下载,但失败了,请问各位有无好的解决办法?谢谢各位

img

img

img

img

  • 写回答

18条回答 默认 最新

  • 专家-赤兔[在线] 全栈领域优质创作者 2023-12-14 09:08
    关注
    获得0.75元问题酬金

    引自强大而免费的微信小程序:皆我知道

    批量下载分析文件可以使用以下步骤:

    1. 确认需要下载的文件列表。根据你的需求,确定需要下载的文件列表以及文件的存储路径。

    2. 使用 elasticsearch-dump 工具导出文件。elasticsearch-dump 是一个用于从 Elasticsearch 导出数据的工具。在终端中运行以下命令安装 elasticsearch-dump

    npm install elasticdump -g
    

    然后使用以下命令导出文件:

    elasticdump \
      --input=http://localhost:9200/[索引名称] \
      --output=/path/to/output/file.json \
      --limit=1000 \
      --type=data
    

    其中:

    • --input 指定 Elasticsearch 的 URL,格式为 http://host:port/[index],其中 [index] 是需要导出的索引名称。
    • --output 指定导出文件的路径和文件名。
    • --limit 指定每次导出的记录数,根据实际情况设置合适的值。
    • --type 指定要导出的数据类型,可以是 datamappinganalyzer
    1. 批量下载导出的文件。根据你的需求,可以使用命令行工具(如 wgetcurl)或编写脚本来批量下载导出的文件。

    如果你想要一次性下载所有导出的文件,可以使用以下 Python 代码示例:

    import requests
    
    file_list = [
      '/path/to/output/file1.json',
      '/path/to/output/file2.json',
      '/path/to/output/file3.json',
      ...
    ]
    
    for file_path in file_list:
      file_url = f'http://localhost:8000{file_path}'  # 假设文件服务的 URL 是 http://localhost:8000
      response = requests.get(file_url)
      with open(file_path, 'wb') as f:
        f.write(response.content)
    

    请注意,上述代码中的文件服务 URL http://localhost:8000 是一个示例,你需要将它替换为实际的文件服务 URL。

    参考资料:

    评论 编辑记录

报告相同问题?

问题事件

  • 系统已结题 12月22日
  • 创建了问题 12月14日

悬赏问题

  • ¥15 35114 SVAC视频验签的问题
  • ¥15 impedancepy
  • ¥15 在虚拟机环境下完成以下,要求截图!
  • ¥15 求往届大挑得奖作品(ppt…)
  • ¥15 如何在vue.config.js中读取到public文件夹下window.APP_CONFIG.API_BASE_URL的值
  • ¥50 浦育平台scratch图形化编程
  • ¥20 求这个的原理图 只要原理图
  • ¥15 vue2项目中,如何配置环境,可以在打完包之后修改请求的服务器地址
  • ¥20 微信的店铺小程序如何修改背景图
  • ¥15 UE5.1局部变量对蓝图不可见