From:http://www.javashuo.com/article/p-devapfwj-ec.htmlhtml
爲了使用Spark進行機器學習,支持GPU是必須的,上層再運行神經網絡引擎。java
目前AWS\GCP和Databricks的雲都已經支持GPU的機器學習,AliYun也在實驗之中。python
這包括幾個層次:git
只有同時知足上面的條件,才能經過Kubernetes的集羣管理對Docker中Spark進行GPU操做。github
下面是已經作的一些研究。shell
From: https://www.jdon.com/bigdata/spark-gpu.htmlapache
選擇Scala:完整的Spark API;GPU庫容許我無需編寫編譯C代碼而直接使用Java (這樣從scala調用Java)。api
Zeppelin -> buggy API
Spark-Notebook -> 導入依賴很頭疼
Sparknotebook -> 就選擇這個了,殺手級應用網絡
下面是從Sparknotebook 倉儲Clone下載一份,按照其指引操做,好比下載IScala.jar等等。session
靈感來自於一個使人印象深入的庫包 ScalaNLP 。 他們聲稱有一個解析器,能夠在一臺計算機上每分鐘解析一百萬字。
Aparapi 出現的緣由。 它編譯Java代碼到OpenCL,若是不能得到一個GPU則使用Java線程池運行。
真正的挑戰是讓這些工具相互調用。 集成的第一步,咱們須要作的就是aparapi jar導入iscala筆記本。
下面是Spark運行在筆記本上的內核上示意圖:
程序日誌記錄出現GPU…顯示它確實是被運行在GPU。
但問題在於深度學習必須使用cuda,仍是cuda纔是正道。
/* implement */