Spark下的WordCount案列演示

安裝教程見我其他博客http://www.javashuo.com/article/p-sfkjjxwj-vs.html, 在終端輸入pyspark進入spark環境: test.txt 進入: 讀取文本文件: >>> textFile = sc.textFile("test.txt") 使用flatMap空格分隔單詞,並讀取每個單詞 注意flatMap和map不同,map產生的List是分層的,
相關文章
相關標籤/搜索