wangxin,25,employee
3,wangergou,78,xixi
4,wawo,35,gogo
5,liwei,28,programmer
6,hanmeimei,29,UI
1.读取数据,将每一行的数据使用列分隔符分割...lineRDD = sc.textFile("hdfs://hdp-sk-01:9000/employee.txt", 1).map(_.split(" ,"))
2.定义case class(相当于表的schema...//默认parquet文件形式
result.save("hdfs://hdp-sk-01:9000/sql/res2", "json") //指定json文件形式
以JSON文件格式覆写HDFS上的JSON...json形式加载
res2之前上传的时json文件,如果使用
sqlContext.load("hdfs://hdp-sk-01:9000/sql/res2")默认加载parquet文件形式,会报下面的错误...192.168.92.112): java.io.IOException: Could not read footer: java.lang.RuntimeException: hdfs://hdp-sk-01:9000/sparksql