默認狀況下,Compose會爲咱們的應用建立一個網絡,服務的每一個容器都會加入該網絡中。這樣,容器就可被該網絡中的其餘容器訪問,不只如此,該容器還能以服務名稱做爲hostname被其餘容器訪問。node
默認狀況下,應用程序的網絡名稱基於Compose的工程名稱,而項目名稱基於docker-compose.yml所在目錄的名稱。如需修改工程名稱,可以使用--project-name標識或COMPOSE_PORJECT_NAME環境變量。mysql
舉個例子,假如一個應用程序在名爲myapp的目錄中,而且docker-compose.yml以下所示:nginx
version: '2'
services:
web:
build: .
ports:
- "8000:8000"
db:
image: postgres
複製代碼
當咱們運行docker-compose up時,將會執行如下幾步:web
容器間可以使用服務名稱(web或db)做爲hostname相互訪問。例如,web這個服務可以使用postgres://db:5432
訪問db容器。redis
當服務的配置發生更改時,可以使用docker-compose up命令更新配置。sql
此時,Compose會刪除舊容器並建立新容器。新容器會以不一樣的IP地址加入網絡,名稱保持不變。任何指向舊容器的鏈接都會被關閉,容器會從新找到新容器並鏈接上去。docker
前文講過,默認狀況下,服務之間可以使用服務名稱相互訪問。links容許咱們定義一個別名,從而使用該別名訪問其餘服務。舉個例子:shell
version: '2'
services:
web:
build: .
links:
- "db:database"
db:
image: postgres
複製代碼
這樣web服務就可以使用db或database做爲hostname訪問db服務了。json
一些場景下,默認的網絡配置知足不了咱們的需求,此時咱們可以使用networks命令自定義網絡。networks命令容許咱們建立更加複雜的網絡拓撲並指定自定義網絡驅動和選項。不只如此,咱們還可以使用networks將服務鏈接到不是由Compose管理的、外部建立的網絡。緩存
以下,咱們在其中定義了兩個自定義網絡。
version: '2'
services:
proxy:
build: ./proxy
networks:
- front
app:
build: ./app
networks:
- front
- back
db:
image: postgres
networks:
- back
networks:
front:
# Use a custom driver
driver: custom-driver-1
back:
# Use a custom driver which takes special options
driver: custom-driver-2
driver_opts:
foo: "1"
bar: "2"
複製代碼
其中,proxy服務與db服務隔離,二者分別使用本身的網絡;app服務可與二者通訊。
由本例不難發現,使用networks命令,便可方便實現服務間的網絡隔離與鏈接。
除自定義網絡外,咱們也可爲默認網絡自定義配置。
version: '2'
services:
web:
build: .
ports:
- "8000:8000"
db:
image: postgres
networks:
default:
# Use a custom driver
driver: custom-driver-1
複製代碼
這樣,就可爲該應用指定自定義的網絡驅動。
一些場景下,咱們並不須要建立新的網絡,而只需加入已存在的網絡,此時可以使用external選項。示例:
networks:
default:
external:
name: my-pre-existing-network複製代碼
在Docker中,容器之間的連接是一種很常見的操做:它提供了訪問其中的某個容器的網絡服務而不須要將所需的端口暴露給Docker Host主機的功能。Docker Compose中對該特性的支持一樣是很方便的。然而,若是須要連接的容器沒有定義在同一個docker-compose.yml
中的時候,這個時候就稍微麻煩複雜了點。
在不使用Docker Compose的時候,將兩個容器連接起來使用—link
參數,相對來講比較簡單,以nginx
鏡像爲例子:
docker run --rm --name test1 -d nginx #開啓一個實例test1
docker run --rm --name test2 --link test1 -d nginx #開啓一個實例test2並與test1創建連接
複製代碼
這樣,test2
與test1
便創建了連接,就能夠在test2
中使用訪問test1
中的服務了。
若是使用Docker Compose,那麼這個事情就更簡單了,仍是以上面的nginx
鏡像爲例子,編輯docker-compose.yml
文件爲:
version: "3"
services:
test2:
image: nginx
depends_on:
- test1
links:
- test1
test1:
image: nginx
複製代碼
最終效果與使用普通的Docker命令docker run xxxx
創建的連接並沒有區別。這只是一種最爲理想的狀況。
docker-compose.yml
文件中,應該如何連接它們呢?docker-compose.yml
文件中的容器須要與docker run xxx
啓動的容器連接,須要如何處理?針對這兩種典型的狀況,下面給出我我的測試可行的辦法:
咱們仍是使用nginx鏡像來模擬這樣的一個情景:假設咱們須要將兩個使用Docker Compose管理的nignx容器(test1
和test2
)連接起來,使得test2
可以訪問test1
中提供的服務,這裏咱們以能ping通爲準。
首先,咱們定義容器test1
的docker-compose.yml
文件內容爲:
version: "3"
services:
test2:
image: nginx
container_name: test1
networks:
- default
- app_net
networks:
app_net:
external: true
複製代碼
容器test2
內容與test1
基本同樣,只是多了一個external_links
,須要特別說明的是:最近發佈的Docker版本已經不須要使用external_links來連接容器,容器的DNS服務能夠正確的做出判斷,所以若是你你須要兼容較老版本的Docker的話,那麼容器test2
的docker-compose.yml
文件內容爲:
version: "3"
services:
test2:
image: nginx
networks:
- default
- app_net
external_links:
- test1
container_name: test2
networks:
app_net:
external: true複製代碼
不然的話,test2
的docker-compose.yml
和test1
的定義徹底一致,不須要額外多指定一個external_links
。相關的問題請參見stackoverflow上的相關問題:docker-compose + external container
正如你看到的那樣,這裏兩個容器的定義裏都使用了同一個外部網絡app_net
,所以,咱們須要在啓動這兩個容器以前經過如下命令再建立外部網絡:
docker network create app_net複製代碼
以後,經過docker-compose up -d
命令啓動這兩個容器,而後執行docker exec -it test2 ping test1
,你將會看到以下的輸出:
docker exec -it test2 ping test1
PING test1 (172.18.0.2): 56 data bytes
64 bytes from 172.18.0.2: icmp_seq=0 ttl=64 time=0.091 ms
64 bytes from 172.18.0.2: icmp_seq=1 ttl=64 time=0.146 ms
64 bytes from 172.18.0.2: icmp_seq=2 ttl=64 time=0.150 ms
64 bytes from 172.18.0.2: icmp_seq=3 ttl=64 time=0.145 ms
64 bytes from 172.18.0.2: icmp_seq=4 ttl=64 time=0.126 ms
64 bytes from 172.18.0.2: icmp_seq=5 ttl=64 time=0.147 ms
複製代碼
證實這兩個容器是成功連接了,反過來在test1
中pingtest2
也是可以正常ping通的。
若是咱們經過docker run --rm --name test3 -d nginx
這種方式來先啓動了一個容器(test3
)而且沒有指定它所屬的外部網絡,而須要將其與test1
或者test2
連接的話,這個時候手動連接外部網絡便可:
docker network connect app_net test3複製代碼
這樣,三個容器均可以相互訪問了。
經過更改你想要相互連接的容器的網絡模式爲bridge
,並指定須要連接的外部容器(external_links
)便可。與同屬外部網絡的容器能夠相互訪問的連接方式一不一樣,這種方式的訪問是單向的。
仍是以nginx容器鏡像爲例子,若是容器實例nginx1
須要訪問容器實例nginx2
,那麼nginx2
的doker-compose.yml
定義爲:
version: "3"
services:
nginx2:
image: nginx
container_name: nginx2
network_mode: bridge
複製代碼
與其對應的,nginx1
的docker-compose.yml
定義爲:
version: "3"
services:
nginx1:
image: nginx
external_links:
- nginx2
container_name: nginx1
network_mode: bridge
複製代碼
須要特別說明的是,這裏的
external_links
是不能省略的,並且nginx1
的啓動必需要在nginx2
以後,不然可能會報找不到容器nginx2
的錯誤。
接着咱們使用ping來測試下連通性:
$ docker exec -it nginx1 ping nginx2 # nginx1 to nginx2
PING nginx2 (172.17.0.4): 56 data bytes
64 bytes from 172.17.0.4: icmp_seq=0 ttl=64 time=0.141 ms
64 bytes from 172.17.0.4: icmp_seq=1 ttl=64 time=0.139 ms
64 bytes from 172.17.0.4: icmp_seq=2 ttl=64 time=0.145 ms
$ docker exec -it nginx2 ping nginx1 #nginx2 to nginx1
ping: unknown host複製代碼
以上也能充分證實這種方式是屬於單向聯通的。
在實際應用中根據本身的須要靈活的選擇這兩種連接方式,若是想偷懶的話,大可選擇第二種。不過我更推薦第一種,不難看出不管是聯通性仍是靈活性,較爲更改網絡模式的第二種都更爲友好。
附docker-compose.yml文件詳解
Compose和Docker兼容性:
Compose 文件格式有3個版本,分別爲1, 2.x 和 3.x
目前主流的爲 3.x 其支持 docker 1.13.0 及其以上的版本
經常使用參數:
version # 指定 compose 文件的版本
services # 定義全部的 service 信息, services 下面的第一級別的 key 既是一個 service 的名稱
build # 指定包含構建上下文的路徑, 或做爲一個對象,該對象具備 context 和指定的 dockerfile 文件以及 args 參數值
context # context: 指定 Dockerfile 文件所在的路徑
dockerfile # dockerfile: 指定 context 指定的目錄下面的 Dockerfile 的名稱(默認爲 Dockerfile)
args # args: Dockerfile 在 build 過程當中須要的參數 (等同於 docker container build --build-arg 的做用)
cache_from # v3.2中新增的參數, 指定緩存的鏡像列表 (等同於 docker container build --cache_from 的做用)
labels # v3.3中新增的參數, 設置鏡像的元數據 (等同於 docker container build --labels 的做用)
shm_size # v3.5中新增的參數, 設置容器 /dev/shm 分區的大小 (等同於 docker container build --shm-size 的做用)
command # 覆蓋容器啓動後默認執行的命令, 支持 shell 格式和 [] 格式
configs # 不知道怎麼用
cgroup_parent # 不知道怎麼用
container_name # 指定容器的名稱 (等同於 docker run --name 的做用)
credential_spec # 不知道怎麼用
deploy # v3 版本以上, 指定與部署和運行服務相關的配置, deploy 部分是 docker stack 使用的, docker stack 依賴 docker swarm
endpoint_mode # v3.3 版本中新增的功能, 指定服務暴露的方式
vip # Docker 爲該服務分配了一個虛擬 IP(VIP), 做爲客戶端的訪問服務的地址
dnsrr # DNS輪詢, Docker 爲該服務設置 DNS 條目, 使得服務名稱的 DNS 查詢返回一個 IP 地址列表, 客戶端直接訪問其中的一個地址
labels # 指定服務的標籤,這些標籤僅在服務上設置
mode # 指定 deploy 的模式
global # 每一個集羣節點都只有一個容器
replicated # 用戶能夠指定集羣中容器的數量(默認)
placement # 不知道怎麼用
replicas # deploy 的 mode 爲 replicated 時, 指定容器副本的數量
resources # 資源限制
limits # 設置容器的資源限制
cpus: "0.5" # 設置該容器最多隻能使用 50% 的 CPU
memory: 50M # 設置該容器最多隻能使用 50M 的內存空間
reservations # 設置爲容器預留的系統資源(隨時可用)
cpus: "0.2" # 爲該容器保留 20% 的 CPU
memory: 20M # 爲該容器保留 20M 的內存空間
restart_policy # 定義容器重啓策略, 用於代替 restart 參數
condition # 定義容器重啓策略(接受三個參數)
none # 不嘗試重啓
on-failure # 只有當容器內部應用程序出現問題纔會重啓
any # 不管如何都會嘗試重啓(默認)
delay # 嘗試重啓的間隔時間(默認爲 0s)
max_attempts # 嘗試重啓次數(默認一直嘗試重啓)
window # 檢查重啓是否成功以前的等待時間(即若是容器啓動了, 隔多少秒以後去檢測容器是否正常, 默認 0s)
update_config # 用於配置滾動更新配置
parallelism # 一次性更新的容器數量
delay # 更新一組容器之間的間隔時間
failure_action # 定義更新失敗的策略
continue # 繼續更新
rollback # 回滾更新
pause # 暫停更新(默認)
monitor # 每次更新後的持續時間以監視更新是否失敗(單位: ns|us|ms|s|m|h) (默認爲0)
max_failure_ratio # 回滾期間容忍的失敗率(默認值爲0)
order # v3.4 版本中新增的參數, 回滾期間的操做順序
stop-first #舊任務在啓動新任務以前中止(默認)
start-first #首先啓動新任務, 而且正在運行的任務暫時重疊
rollback_config # v3.7 版本中新增的參數, 用於定義在 update_config 更新失敗的回滾策略
parallelism # 一次回滾的容器數, 若是設置爲0, 則全部容器同時回滾
delay # 每一個組回滾之間的時間間隔(默認爲0)
failure_action # 定義回滾失敗的策略
continue # 繼續回滾
pause # 暫停回滾
monitor # 每次回滾任務後的持續時間以監視失敗(單位: ns|us|ms|s|m|h) (默認爲0)
max_failure_ratio # 回滾期間容忍的失敗率(默認值0)
order # 回滾期間的操做順序
stop-first # 舊任務在啓動新任務以前中止(默認)
start-first # 首先啓動新任務, 而且正在運行的任務暫時重疊
注意:
支持 docker-compose up 和 docker-compose run 但不支持 docker stack deploy 的子選項
security_opt container_name devices tmpfs stop_signal links cgroup_parent
network_mode external_links restart build userns_mode sysctls
devices # 指定設備映射列表 (等同於 docker run --device 的做用)
depends_on # 定義容器啓動順序 (此選項解決了容器之間的依賴關係, 此選項在 v3 版本中 使用 swarm 部署時將忽略該選項)
示例:
docker-compose up 以依賴順序啓動服務,下面例子中 redis 和 db 服務在 web 啓動前啓動
默認狀況下使用 docker-compose up web 這樣的方式啓動 web 服務時,也會啓動 redis 和 db 兩個服務,由於在配置文件中定義了依賴關係
version: '3'
services:
web:
build: .
depends_on:
- db
- redis
redis:
image: redis
db:
image: postgres
dns # 設置 DNS 地址(等同於 docker run --dns 的做用)
dns_search # 設置 DNS 搜索域(等同於 docker run --dns-search 的做用)
tmpfs # v2 版本以上, 掛載目錄到容器中, 做爲容器的臨時文件系統(等同於 docker run --tmpfs 的做用, 在使用 swarm 部署時將忽略該選項)
entrypoint # 覆蓋容器的默認 entrypoint 指令 (等同於 docker run --entrypoint 的做用)
env_file # 從指定文件中讀取變量設置爲容器中的環境變量, 能夠是單個值或者一個文件列表, 若是多個文件中的變量重名則後面的變量覆蓋前面的變量, environment 的值覆蓋 env_file 的值
文件格式:
RACK_ENV=development
environment # 設置環境變量, environment 的值能夠覆蓋 env_file 的值 (等同於 docker run --env 的做用)
expose # 暴露端口, 可是不能和宿主機創建映射關係, 相似於 Dockerfile 的 EXPOSE 指令
external_links # 鏈接不在 docker-compose.yml 中定義的容器或者不在 compose 管理的容器(docker run 啓動的容器, 在 v3 版本中使用 swarm 部署時將忽略該選項)
extra_hosts # 添加 host 記錄到容器中的 /etc/hosts 中 (等同於 docker run --add-host 的做用)
healthcheck # v2.1 以上版本, 定義容器健康狀態檢查, 相似於 Dockerfile 的 HEALTHCHECK 指令
test # 檢查容器檢查狀態的命令, 該選項必須是一個字符串或者列表, 第一項必須是 NONE, CMD 或 CMD-SHELL, 若是其是一個字符串則至關於 CMD-SHELL 加該字符串
NONE # 禁用容器的健康狀態檢測
CMD # test: ["CMD", "curl", "-f", "http://localhost"]
CMD-SHELL # test: ["CMD-SHELL", "curl -f http://localhost || exit 1"] 或者 test: curl -f https://localhost || exit 1
interval: 1m30s # 每次檢查之間的間隔時間
timeout: 10s # 運行命令的超時時間
retries: 3 # 重試次數
start_period: 40s # v3.4 以上新增的選項, 定義容器啓動時間間隔
disable: true # true 或 false, 表示是否禁用健康狀態檢測和 test: NONE 相同
image # 指定 docker 鏡像, 能夠是遠程倉庫鏡像、本地鏡像
init # v3.7 中新增的參數, true 或 false 表示是否在容器中運行一個 init, 它接收信號並傳遞給進程
isolation # 隔離容器技術, 在 Linux 中僅支持 default 值
labels # 使用 Docker 標籤將元數據添加到容器, 與 Dockerfile 中的 LABELS 相似
links # 連接到其它服務中的容器, 該選項是 docker 歷史遺留的選項, 目前已被用戶自定義網絡名稱空間取代, 最終有可能被廢棄 (在使用 swarm 部署時將忽略該選項)
logging # 設置容器日誌服務
driver # 指定日誌記錄驅動程序, 默認 json-file (等同於 docker run --log-driver 的做用)
options # 指定日誌的相關參數 (等同於 docker run --log-opt 的做用)
max-size # 設置單個日誌文件的大小, 當到達這個值後會進行日誌滾動操做
max-file # 日誌文件保留的數量
network_mode # 指定網絡模式 (等同於 docker run --net 的做用, 在使用 swarm 部署時將忽略該選項)
networks # 將容器加入指定網絡 (等同於 docker network connect 的做用), networks 能夠位於 compose 文件頂級鍵和 services 鍵的二級鍵
aliases # 同一網絡上的容器可使用服務名稱或別名鏈接到其中一個服務的容器
ipv4_address # IP V4 格式
ipv6_address # IP V6 格式
示例:
version: '3.7'
services:
test:
image: nginx:1.14-alpine
container_name: mynginx
command: ifconfig
networks:
app_net: # 調用下面 networks 定義的 app_net 網絡
ipv4_address: 172.16.238.10
networks:
app_net:
driver: bridge
ipam:
driver: default
config:
- subnet: 172.16.238.0/24
pid: 'host' # 共享宿主機的 進程空間(PID)
ports # 創建宿主機和容器之間的端口映射關係, ports 支持兩種語法格式
SHORT 語法格式示例:
- "3000" # 暴露容器的 3000 端口, 宿主機的端口由 docker 隨機映射一個沒有被佔用的端口
- "3000-3005" # 暴露容器的 3000 到 3005 端口, 宿主機的端口由 docker 隨機映射沒有被佔用的端口
- "8000:8000" # 容器的 8000 端口和宿主機的 8000 端口創建映射關係
- "9090-9091:8080-8081"
- "127.0.0.1:8001:8001" # 指定映射宿主機的指定地址的
- "127.0.0.1:5000-5010:5000-5010"
- "6060:6060/udp" # 指定協議
LONG 語法格式示例:(v3.2 新增的語法格式)
ports:
- target: 80 # 容器端口
published: 8080 # 宿主機端口
protocol: tcp # 協議類型
mode: host # host 在每一個節點上發佈主機端口, ingress 對於羣模式端口進行負載均衡
secrets # 不知道怎麼用
security_opt # 爲每一個容器覆蓋默認的標籤 (在使用 swarm 部署時將忽略該選項)
stop_grace_period # 指定在發送了 SIGTERM 信號以後, 容器等待多少秒以後退出(默認 10s)
stop_signal # 指定中止容器發送的信號 (默認爲 SIGTERM 至關於 kill PID; SIGKILL 至關於 kill -9 PID; 在使用 swarm 部署時將忽略該選項)
sysctls # 設置容器中的內核參數 (在使用 swarm 部署時將忽略該選項)
ulimits # 設置容器的 limit
userns_mode # 若是Docker守護程序配置了用戶名稱空間, 則禁用此服務的用戶名稱空間 (在使用 swarm 部署時將忽略該選項)
volumes # 定義容器和宿主機的卷映射關係, 其和 networks 同樣能夠位於 services 鍵的二級鍵和 compose 頂級鍵, 若是須要跨服務間使用則在頂級鍵定義, 在 services 中引用
SHORT 語法格式示例:
volumes:
- /var/lib/mysql # 映射容器內的 /var/lib/mysql 到宿主機的一個隨機目錄中
- /opt/data:/var/lib/mysql # 映射容器內的 /var/lib/mysql 到宿主機的 /opt/data
- ./cache:/tmp/cache # 映射容器內的 /var/lib/mysql 到宿主機 compose 文件所在的位置
- ~/configs:/etc/configs/:ro # 映射容器宿主機的目錄到容器中去, 權限只讀
- datavolume:/var/lib/mysql # datavolume 爲 volumes 頂級鍵定義的目錄, 在此處直接調用
LONG 語法格式示例:(v3.2 新增的語法格式)
version: "3.2"
services:
web:
image: nginx:alpine
ports:
- "80:80"
volumes:
- type: volume # mount 的類型, 必須是 bind、volume 或 tmpfs
source: mydata # 宿主機目錄
target: /data # 容器目錄
volume: # 配置額外的選項, 其 key 必須和 type 的值相同
nocopy: true # volume 額外的選項, 在建立卷時禁用從容器複製數據
- type: bind # volume 模式只指定容器路徑便可, 宿主機路徑隨機生成; bind 須要指定容器和數據機的映射路徑
source: ./static
target: /opt/app/static
read_only: true # 設置文件系統爲只讀文件系統
volumes:
mydata: # 定義在 volume, 可在全部服務中調用
restart # 定義容器重啓策略(在使用 swarm 部署時將忽略該選項, 在 swarm 使用 restart_policy 代替 restart)
no # 禁止自動重啓容器(默認)
always # 不管如何容器都會重啓
on-failure # 當出現 on-failure 報錯時, 容器從新啓動
其餘選項:
domainname, hostname, ipc, mac_address, privileged, read_only, shm_size, stdin_open, tty, user, working_dir
上面這些選項都只接受單個值和 docker run 的對應參數相似
對於值爲時間的可接受的值:
2.5s
10s
1m30s
2h32m
5h34m56s
時間單位: us, ms, s, m, h
對於值爲大小的可接受的值:
2b
1024kb
2048k
300m
1gb
單位: b, k, m, g 或者 kb, mb, gb
networks # 定義 networks 信息
driver # 指定網絡模式, 大多數狀況下, 它 bridge 於單個主機和 overlay Swarm 上
bridge # Docker 默認使用 bridge 鏈接單個主機上的網絡
overlay # overlay 驅動程序建立一個跨多個節點命名的網絡
host # 共享主機網絡名稱空間(等同於 docker run --net=host)
none # 等同於 docker run --net=none
driver_opts # v3.2以上版本, 傳遞給驅動程序的參數, 這些參數取決於驅動程序
attachable # driver 爲 overlay 時使用, 若是設置爲 true 則除了服務以外,獨立容器也能夠附加到該網絡; 若是獨立容器鏈接到該網絡,則它能夠與其餘 Docker 守護進程鏈接到的該網絡的服務和獨立容器進行通訊
ipam # 自定義 IPAM 配置. 這是一個具備多個屬性的對象, 每一個屬性都是可選的
driver # IPAM 驅動程序, bridge 或者 default
config # 配置項
subnet # CIDR格式的子網,表示該網絡的網段
external # 外部網絡, 若是設置爲 true 則 docker-compose up 不會嘗試建立它, 若是它不存在則引起錯誤
name # v3.5 以上版本, 爲此網絡設置名稱
文件格式示例:
version: "3"
services:
redis:
image: redis:alpine
ports:
- "6379"
networks:
- frontend
deploy:
replicas: 2
update_config:
parallelism: 2
delay: 10s
restart_policy:
condition: on-failure
db:
image: postgres:9.4
volumes:
- db-data:/var/lib/postgresql/data
networks:
- backend
deploy:
placement:
constraints: [node.role == manager]複製代碼