Eumenides-Z
2018-11-19 09:05
采纳率: 100%
浏览 2.1k

如何将spark读入的txtRDD文本转为Vector格式

在spark上使用textFile读入HDFS中的txt文件,该文件部分如下:

    49420 1383788 0.000020 358064278.750527 0 0.000000
    48896 1369116 0.000020 357927226.401787 0 0.000000
    49412 1383564 0.000020 357979014.993087 0 0.000000
    49284 1379980 0.000020 357811734.328588 0 0.000000
    48666 1362676 0.000021 357741524.933751 0 0.000000
    49726 1392356 0.000020 357853612.975128 0 0.000000
    49546 1387316 0.000020 358326789.510850 0 0.000000
    48781 1365896 0.000020 357718866.216985 0 0.000000
    36848 1031772 0.000027 357027433.127875 0 0.000000
    49537 1387064 0.000020 358307459.890310 0 0.000000
    49146 1376116 0.000020 358291449.233641 0 0.000000
    49952 1398684 0.000020 357755490.896889 0 0.000000

为六列整型或浮点型数值,将每一行作为一个样本进行分类机器学习的特征向量。
该文件准备打同一标签,但还未打标签。
textFile读入之后只是返回一个字符串RDD,请问如何将其转换为Mllib支持处理的Vector或分类算法直接支持的LabeledPoint格式呢?最好用python吧。

  • 写回答
  • 好问题 提建议
  • 追加酬金
  • 关注问题
  • 邀请回答

1条回答 默认 最新

  • devmiao 2018-11-19 12:48
    最佳回答
    评论
    解决 无用
    打赏 举报

相关推荐 更多相似问题