Eumenides-Z 2018-05-15 16:23 采纳率: 100%
浏览 1413
已采纳

在linux中用python3通过os和subprocess运行hadoop上传命令找不到文件

我在几台linux虚拟机上打好了hadoop平台,这时直接用linux的终端输入命令:

 hadoop fs -put Desktop/test.txt /

是可以把本地桌面的text.txt文件上传到hadoop的HDFS中的。
但是通过python脚本,导入os库或者subprocess库,通过

 os.system("hadoop fs -put Desktop/test.txt /")

或者

 subprocess.call("hadoop fs -put Desktop/test.txt /",shell = True)

就会报错:No such file or directory

这是怎么回事,求助啊!
通过python脚本上传本地文件到HDFS应该怎么样最快最好呢?

  • 写回答

2条回答 默认 最新

  • oyljerry 2018-05-16 01:54
    关注

    这个用完整路径,python执行的时候,当前路径不在你的Desktop这一个目录了

     /home/xxx/Desktop/test.txt
    
    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

悬赏问题

  • ¥15 素材场景中光线烘焙后灯光失效
  • ¥15 请教一下各位,为什么我这个没有实现模拟点击
  • ¥15 执行 virtuoso 命令后,界面没有,cadence 启动不起来
  • ¥50 comfyui下连接animatediff节点生成视频质量非常差的原因
  • ¥20 有关区间dp的问题求解
  • ¥15 多电路系统共用电源的串扰问题
  • ¥15 slam rangenet++配置
  • ¥15 有没有研究水声通信方面的帮我改俩matlab代码
  • ¥15 ubuntu子系统密码忘记
  • ¥15 保护模式-系统加载-段寄存器