Openstack平臺搭建之第三天html
Author :xxbAndymysql
If you have any question ,please contact me by weichuangxxb@sina.cn or 371990778(qq)
web
注意:主控節點爲server10.example.com; 新增nova節點爲desktop10.example.com
sql
在實驗環境中已經對各個主機作了DNS解析
vim
1.管理neutron節點服務,爲nova-compute節點進行配置網絡服務安全
[root@server10 ~]# source /root/keystonrc_admin網絡
[root@server10 ~(keystone_admin)]# vim /etc/neutron/plugins/openvswitch/ovs_neutron_plugin.iniapp
tenant_network_type = vlan tenant類型
network_vlan_ranges = physnet1:1:100 vlan地址池
bridge_mappings = physnet1:br-eth1 橋接口測試
建立相應的接口:
url
[root@server10 ~(keystone_admin)]#ovs-vsctl add-br br-eth1
[root@server10 ~(keystone_admin)]#ovs-vsctl add-port br-eth1 eth1
[root@server10 ~(keystone_admin)]#ovs-vsctl show
重啓全部neutron啓動相關的服務(condrestart),並進行日誌查看(由於在搭建過程當中任何一處的小錯誤將會影響整個平臺搭建)
[root@server10 ~(keystone_admin)]#for i in /etc/init.d/neutron-*;do $i condrestart;done
[root@server10 ~(keystone_admin)]#grep ERROR /var/log/neutron/openvswitch-agent.log
查看本機啓動服務:
[root@server10 ~(keystone_admin)]#nova-manage servece list 只顯示當前一個主機的節點enable(由於咱們是all in one,即全部服務在一臺主機上部署的)
2.添加nova節點,而且配置相同的nova-compute服務
新增一臺主機,內存硬盤能夠根據本身的實際需求進行擴展(nova-compute節點主要是運行雲主機以及相關服務的,因此你就想着看多少比較適合你的環境了。由於是在試驗環境下,咱們將宿主機資源共享給nova-compute)
不過值得注意的是,咱們須要將nova-compute節點的IP設置爲靜態。
nova-compute新增節點配置:
#yum update -y ;reboot
#yum install openstack-nova-compute -y
因爲在server10.example.com主機上咱們已經正確配置過nova-compute以及neutron,所以,在新增的nova節點上,咱們將徹底拷貝配置文件,最後進行適當的微調。
[root@server10 nova(keystone_admin)]# scp /etc/nova/nova.conf 192.168.0.10:/etc/nova/
[root@desktop10 nova]# vim /etc/nova/nova.conf
my_ip=192.168.0.10
vncserver_listen=192.168.0.10
vncserver_proxyclient_address=192.168.0.10
libvirt_type=kvm (記住,由於是在加的真機使用KVM,虛擬機用qemu)
必須注意與mysql的連接啊
connection=mysql://nova:westos@192.168.0.110/nova 使用nova用戶westos密碼登陸nova庫(默認拷貝過來是連接localhost的)
[root@desktop10 nova]# /etc/init.d/openstack-nova-compute start
[root@desktop10 nova]# /etc/init.d/libvirtd start
注意:其實在環境中應該啓動libvirtd服務哦!
[root@desktop10 nova]# chkconfig openstack-nova-compute on
[root@desktop10 nova]# chkconfig libvirtd on
[root@desktop10 nova]# nova-manage service list
Binary Host Zone Status State Updated_At
nova-conductor server10.example.com internal enabled :-) 2014-08-03 03:42:26
nova-compute server10.example.com nova enabled :-) 2014-08-03 03:42:26
nova-consoleauth server10.example.com internal enabled :-) 2014-08-03 03:42:25
nova-scheduler server10.example.com internal enabled :-) 2014-08-03 03:42:25
nova-compute desktop10.example.com nova enabled :-) 2014-08-03 03:42:31
由輸出咱們可知:新增了一個nova-compute節點,desktop10.example.com
同時爲了便於咱們區分以後的雲主機是在哪一個節點啓動的,咱們將server10的nova-compute先disable。
[root@desktop10 nova]# nova-manage service disable --host server10.example.com --service nova-compute
此時,整個環境中將只有一個nova-compute節點,也就是說最終的雲主機是在desktop10主機上啓動消耗的是desktop10的硬件資源。
3.爲nova-compute節點配置neutron網絡服務
[root@desktop10 nova]# yum install openstack-neutron-openvswitch -y
[root@desktop10 neutron]# scp 192.168.0.110:/etc/neutron/neutron.conf /etc/neutron/
[root@desktop10 neutron]# scp 192.168.0.110:/etc/neutron/plugins/openvswitch/ovs_neutron_plugin.ini /etc/neutron/plugins/openvswitch/
[root@desktop10 neutron]# /etc/init.d/openvswitch start
[root@desktop10 neutron]# chkconfig openvswitch on
[root@desktop10 neutron]# ovs-vsctl add-br br-int 建立一個虛擬橋接口br-int
[root@desktop10 neutron]# ovs-vsctl add-br br-eth1
[root@desktop10 neutron]# ovs-vsctl add-port br-eth1 br101 本機br101橋接到br-eth1上
[root@desktop10 neutron]# /etc/init.d/neutron-openvswitch-agent start
Starting neutron-openvswitch-agent: [ OK ]
[root@desktop10 neutron]# chkconfig neutron-openvswitch-agent on
[root@desktop10 neutron]# chkconfig neutron-ovs-cleanup on
[root@desktop10 neutron]# tail -f /var/log/neutron/openvswitch-agent.log
[root@desktop10 neutron]# ovs-vsctl show
0d1feaba-56ce-4696-9d16-0a993cff5923
Bridge br-int
Port "int-br-eth1"
Interface "int-br-eth1"
Port br-int
Interface br-int
type: internal
Bridge "br-eth1"
Port "br-eth1"
Interface "br-eth1"
type: internal
Port "br101"
Interface "br101"
Port "phy-br-eth1"
Interface "phy-br-eth1"
ovs_version: "1.11.0"
查看到上述輸出基本就是正確了。
4.須要注意的是,在新增nova節點時須要安裝一個依賴包,以進行和主控節點(server10)進行通訊,具體步驟以下:
[root@desktop10 neutron]# yum install -y openstack-neutron-ml2.noarch
[root@desktop10 nova]# vim /etc/nova/nova.conf
novncproxy_base_url=http://192.168.0.110:6080/vnc_auto.html
glance_host=192.168.0.110 讓nova-compute在建立雲主機時能夠找到glance文件
rpc_backend=nova.openstack.common.rpc.impl_qpid 讓nova-compute和主控端進行通訊
[root@desktop10 nova]# /etc/init.d/openstack-nova-compute restart
[root@desktop10 nova]# chkconfig openstack-nova-compute on
接下來須要配置的已經配置完畢。
如今使用admin用戶登陸https://server10.example.com/dashboard 進行建立相關的項目以及用戶服務。
1.建立項目
2.建立用戶(admin身份和成員身份) 身份所指的是用戶的角色,即決定用戶的權限
用admin身份的那個用戶接下來操做
3.上傳鏡像 在glance服務中咱們已經上傳了small.img和web.img了
4.建立網絡:針對某個項目建立網絡(外網) 進行建立網絡,內部網絡和外部網絡通訊
點net1建立子網內網172.24.X.0(不需用網關) 172網段在真實主機上模擬的是一個公網地址
不用DHCP,子網詳情
建立網絡:內網網絡 內網192.168.32.0網段其實就是以前橋接的br101接口
點net2建立內網192.168.32.0
查看一下網絡拓撲圖 會發現咱們真正的建立了兩個網絡(172網絡和192網絡)
5.添加路由
建立route選擇網關。(查看拓撲) 添加路由信息,分別將兩個網絡鏈接起來,實現內外網通訊
增長路由接口,將兩個網段連接
6.建立安全組,而且設置規則 自定義訪問規則,至關於簡單的防火牆策略
建立密鑰對,而且下載 用於客戶機對雲主機的遠程登陸驗證所用的
分配浮動ip(公網IP) 給172公網分配一個浮動IP,以進行客戶通訊
7.建立雲主機類型(也就是主機的配置) 本身定義所須要主機的相關配置
雲磁盤
8.啓動雲主機 開始啓動雲主機,進行相應的信息選擇(主機名。。。)
管理員密碼,就是訪問雲主機的管理員密碼,可是默認不能使用,安全組的選擇
選擇私有網絡(查看網絡拓撲)
點擊更多進行綁定浮動IP(以便用於客戶對雲主機進行直接登陸訪問)
啓動雲主機:
發現其實雲主機已經啓動起來了,默認獲取的IP爲192.168.32.2
[root@desktop10 nova]# virsh list 使用virsh命令查看
Id Name State
----------------------------------------------------
1 server10 running server10爲KVM的虛擬機
2 instance-00000003 running 這個爲Openstack的雲主機
模擬公網IP登陸測試: 使用以前建立祕鑰對進行遠程登陸雲主機(172.24.10.4是當時分配的公網IP)
遠程登陸後對系統內部進行測試:
此時,咱們已經能夠在遠程登陸咱們的雲主機了。
今天就到此爲止,更多精彩,請繼續關注!!!!