Eumenides-Z 2018-05-15 16:23 采纳率: 100%
浏览 1414
已采纳

在linux中用python3通过os和subprocess运行hadoop上传命令找不到文件

我在几台linux虚拟机上打好了hadoop平台,这时直接用linux的终端输入命令:

 hadoop fs -put Desktop/test.txt /

是可以把本地桌面的text.txt文件上传到hadoop的HDFS中的。
但是通过python脚本,导入os库或者subprocess库,通过

 os.system("hadoop fs -put Desktop/test.txt /")

或者

 subprocess.call("hadoop fs -put Desktop/test.txt /",shell = True)

就会报错:No such file or directory

这是怎么回事,求助啊!
通过python脚本上传本地文件到HDFS应该怎么样最快最好呢?

  • 写回答

2条回答 默认 最新

  • oyljerry 2018-05-16 01:54
    关注

    这个用完整路径,python执行的时候,当前路径不在你的Desktop这一个目录了

     /home/xxx/Desktop/test.txt
    
    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

悬赏问题

  • ¥15 在若依框架下实现人脸识别
  • ¥15 网络科学导论,网络控制
  • ¥100 安卓tv程序连接SQLSERVER2008问题
  • ¥15 利用Sentinel-2和Landsat8做一个水库的长时序NDVI的对比,为什么Snetinel-2计算的结果最小值特别小,而Lansat8就很平均
  • ¥15 metadata提取的PDF元数据,如何转换为一个Excel
  • ¥15 关于arduino编程toCharArray()函数的使用
  • ¥100 vc++混合CEF采用CLR方式编译报错
  • ¥15 coze 的插件输入飞书多维表格 app_token 后一直显示错误,如何解决?
  • ¥15 vite+vue3+plyr播放本地public文件夹下视频无法加载
  • ¥15 c#逐行读取txt文本,但是每一行里面数据之间空格数量不同