在spark上使用textFile读入HDFS中的txt文件,该文件部分如下:
49420 1383788 0.000020 358064278.750527 0 0.000000
48896 1369116 0.000020 357927226.401787 0 0.000000
49412 1383564 0.000020 357979014.993087 0 0.000000
49284 1379980 0.000020 357811734.328588 0 0.000000
48666 1362676 0.000021 357741524.933751 0 0.000000
49726 1392356 0.000020 357853612.975128 0 0.000000
49546 1387316 0.000020 358326789.510850 0 0.000000
48781 1365896 0.000020 357718866.216985 0 0.000000
36848 1031772 0.000027 357027433.127875 0 0.000000
49537 1387064 0.000020 358307459.890310 0 0.000000
49146 1376116 0.000020 358291449.233641 0 0.000000
49952 1398684 0.000020 357755490.896889 0 0.000000
为六列整型或浮点型数值,将每一行作为一个样本进行分类机器学习的特征向量。
该文件准备打同一标签,但还未打标签。
textFile读入之后只是返回一个字符串RDD,请问如何将其转换为Mllib支持处理的Vector或分类算法直接支持的LabeledPoint格式呢?最好用python吧。