【Spark亞太研究院系列叢書】Spark實戰高手之路-第一章 構建Spark集羣(第四步)(7)

第四步:經過Spark的IDE搭建並測試Spark開發環境

 

Step 1:導入Spark-hadoop對應的包,次選擇「File」–> 「Project Structure」 –> 「Libraries」,選擇「+」,將spark-hadoop 對應的包導入:web

點擊「OK」確認:oop

點擊「OK」:測試

IDEA工做完成後會發現Spark的jar包導入到了咱們的工程中:spa

Step 2:開發第一個Spark程序。打開Spark自帶的Examples目錄:orm

此時發現內部有不少文件,這些都是Spark給我提供的實例。hadoop

在咱們的在咱們的第一Scala工程的src下建立一個名稱爲SparkPi的Scala的object:開發

此時打開Spark自帶的Examples下的SparkPi文件:it

咱們把該文的內容直接拷貝到IDEA中建立的SparkPi中:spark

相關文章
相關標籤/搜索