大數據開發-Docker-使用Docker10分鐘快速搭建大數據環境,Hadoop、Hive、Spark、Hue、Kafka、ElasticSearch.....

立個坑,教程後續補上,固然這不是最重要的,若是你僅僅想有個環境能夠測試,只須要下面 三步git

1.git clone https://github.com/hulichao/docker-bigdatagithub

`

2.安裝dockerdocker-compose, 而後cd docker-bigdata && docker-compose -f docker-compose-dev up -d`docker

`

3.啓動集羣 登入docker環境,而後 sh scripts/start-cluster.sh ,ps:scripts` 下有不少啓動和中止集羣的腳本,按需啓動,注意註釋哦服務器

你拉的鏡像是在這個倉庫裏哈,https://hub.docker.com/repository/hoult測試

file

接下來就能夠愉快的玩耍了大數據

ps: 端口的映射部分,也要注意下,因爲在本身本本或者別的服務器搭建時候端口每每不必定均可以用,看着改改端口,再啓動人工智能

吳邪,小三爺,混跡於後臺,大數據,人工智能領域的小菜鳥。
更多請關注
file3d

相關文章
相關標籤/搜索