eclipse + maven + scala+spark環境搭建shell
1、配置eclipse + maven + scala環境
1. 在Eclipse Market中安裝Scala IDE、Maven
2、測試eclipse+maven+scala的運行環境
1. 先來簡單測試一下eclipse+scala
1)
新建一個名爲
Scala Project
,右鍵工程添加一個名爲
test
的
Scala Object
,代碼以下:
2)
最終如圖示:
3)
右鍵
test.scala
,
Run as…-> Scala Application
,在終端成功輸出了
hello world
2、再來測試一下ecliipse+scala+maven
1) 新建maven工程apache
若是沒有
scala
這一項,手動添加
Archetype.
最後點擊
Finish.
新建項目以下圖:
此時建立的工程還不是
scala
的工程,在項目名稱上點擊右鍵
點擊 Add Scala Nature後項目才轉換爲scala-maven項目eclipse
而後pom.xml報下圖中的錯誤,解決辦法:在 plugins 的外層加標籤maven
這樣
maven+scala
的項目就成功搭建了。
3、配置spark的本地運行
1. 配置所需依賴包
1)
在
maven-sample
工程的基礎上配置
spark
。只需在
poml.xml
中添加
spark-core
。
- <dependency>
- <groupId>org.apache.spark</groupId>
- <artifactId>spark-core_2.11</artifactId>
- <version>1.2.1</version>
-
</dependency>
2)
在
default package
中添加
scala object – SimpleApp
。代碼以下:
- /* SimpleApp.scala */
- import org.apache.spark.SparkContext
- import org.apache.spark.SparkContext._
- import org.apache.spark.SparkConf
-
- object SimpleApp {
- def main(args: Array[String]) {
- val logFile = "test.txt" // Should be some file on your system
- val conf = new SparkConf().setAppName("Simple Application").setMaster("local[2]")
- val sc = new SparkContext(conf)
- val logData = sc.textFile(logFile, 2).cache()
- val numAs = logData.filter(line => line.contains("a")).count()
- val numBs = logData.filter(line => line.contains("b")).count()
- println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
- }
-
}
3)Test.txt
文件須要在項目文件目錄中建立。內容以下:
- a
- b
- c
- ab
- abab
-
d
4)
右鍵
SimpleApp.scala
,
Run as -> Scala Application
,運行程序,發現報異常。
該異常解決辦法以下:
http://www.srccodes.com/p/article/39/error-util-shell-failed-locate-winutils-binary-hadoop-binary-pathoop
網頁中提供了「Build, Install, Configure and Run Apache Hadoop 2.2.0 in MicrosoftWindows OS」的連接,也提供了現成的編譯好的包。直接將包下載下來,在工程目錄下創建null/bin目錄,並將下載包中的全部文件拷貝進了null/bin目錄。測試
5)
接下來,再運行
SimpleApp
程序,就沒有異常了。運行結果:
Lines with a: 3, Lines with b: 3
以上就是eclipse + maven + scala+spark環境搭建的全部步驟。ui