Spark Pipe使用方法(外部程序調用方法)

寫在前面:java

一、咱們使用的是Hadoop2.2.0,Spark 1.0。express

二、這裏使用的樣例是經典的求pai程序來演示這個開發過程。apache

三、咱們暫時使用java程序來開發,按照須要後面改用scala來開發。api

四、咱們使用的IDE是IntelliJ IDEA,採用maven來作項目管理。app

1、項目建立less

1.1 運行IDE,經過下面命令 ~/idea-IC-133.696/idea.shmaven

1.2 建立一個maven項目。ide

1.2 新建的項目添加庫文件。oop

1) scala中lib的安裝路徑,如咱們的路徑在/usr/share/scala/libui

2) spark的lib文件,好比咱們的文件在~/spark-1.0.0/assembly/target/scala-2.10/spark-assembly-1.0.0-hadoop2.2.0.jar

咱們須要在IDE中添加這兩個庫文件。

1)按ctrl+alt+shift+s快捷鍵,選中global libraries,出現以下窗口,把上面兩個目錄添加進去,最後以下。

2、代碼編寫

 1 /*
 2  * Licensed to the Apache Software Foundation (ASF) under one or more
 3  * contributor license agreements.  See the NOTICE file distributed with
 4  * this work for additional information regarding copyright ownership.
 5  * The ASF licenses this file to You under the Apache License, Version 2.0
 6  * (the "License"); you may not use this file except in compliance with
 7  * the License.  You may obtain a copy of the License at
 8  *
 9  *    http://www.apache.org/licenses/LICENSE-2.0
10  *
11  * Unless required by applicable law or agreed to in writing, software
12  * distributed under the License is distributed on an "AS IS" BASIS,
13  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
14  * See the License for the specific language governing permissions and
15  * limitations under the License.
16  */
17 import org.apache.spark.SparkConf;
18 import org.apache.spark.api.java.JavaRDD;
19 import org.apache.spark.api.java.JavaSparkContext;
20 import org.apache.spark.api.java.function.Function;
21 import org.apache.spark.api.java.function.Function2;
22 import org.apache.spark.util.FloatVector;
23 
24 import java.util.ArrayList;
25 import java.util.List;
26 
27 public final class GPUPi {
28 
29 
30   public static void main(String[] args) throws Exception {
31     SparkConf sparkConf = new SparkConf().setAppName("JavaSparkPi");
32     JavaSparkContext jsc = new JavaSparkContext(sparkConf);
33     int slices = (args.length == 1) ? Integer.parseInt(args[0]) : 2;
34     int n = slices;
35     int t = 100000000;
36     List<Integer> l = new ArrayList<Integer>(n);
37     for (int i = 0; i < n; i++) {
38       l.add(t);
39     }
40       String s = "./pi " + new Integer(n / slices).toString();
41     int count = jsc.parallelize(l, slices)
42             .pipe(s)
43             .map(
44               new Function<String, Integer>() {
45                   @Override
46                   public Integer call(String line) {
47                       return Integer.parseInt(line);
48                   }
49               }
50       ).reduce(new Function2<Integer, Integer, Integer>() {
51           @Override
52           public Integer call(Integer integer, Integer integer2) {
53               return integer + integer2;
54           }
55       });
56     System.out.println("Pi is roughly " + 4.0 * count / n / t);
57   }
58 }

這段代碼經過RDDPipe,調用一個外部程序來計算,最後經過reduce+操做,得到幾個外部程序的計算結果,這樣一個接口,可使得外部程序徹底獨立,和spark不會有太大的關係,甚至能夠在外部程序中使用cuda等來加速。

這裏須要說明一下pipe接口,這是由於在spark1.0中,咱們依然沒有在example樣例中看到演示這個接口的任何代碼。pipe接受一個cmd指令,而後在外部執行它,如「./pi"就是執行一個叫pi的可執行文件,所不一樣的是,這個外部程序全部的輸入流都是由spark中的RDD傳送給他的,同時,外部程序的輸出,會造成一個新的RDD。

咱們對應的c語言代碼以下:

#include <stdio.h>
#include <stdlib.h>
#include <time.h>

int main(int argc, char *argv[]) {
    int num = 0, count = 0,t;
    double z = RAND_MAX;
    z = z * z;
    t = atoi(argv[1]);
    for(int i = 0; i < t; i++){
        scanf("%d",&num);
        for(int j = 0; j < num; j++){
            double x = rand();
            double y = rand();
            if(x * x + y * y <= z){
                count++;
            }
        }
    }
    printf("%d\n",count);
    return 0;
}

3、編譯

因爲項目已經採用maven來管理了,這裏也就使用maven來打包了。命令是mvn package,這樣就會在target目錄下生成gpu-1.0-SNAPSHOT.jar文件。

4、做業提交。

mvn package
spark-submit \
--class GPUPi \
--master yarn-cluster \
--executor-memory 2G \
--num-executors 4 \
--files /home/yarn/cuda-workspace/pi/Release/pi \
target/gpu-1.0-SNAPSHOT.jar 4

--files把可執行文件pi發送到每一臺機器上面。

--master指定執行的模式,通常都是選yarn-cluster模式,讓spark跑在yarn上面,其餘能夠參考文檔說明。

相關文章
相關標籤/搜索