当前位置:文档之家› kvm网络模式

kvm网络模式

kvm网络模式
kvm网络模式

摘要:KVM虚拟机网络配置的两种方式:NAT方式和Bridge方式。Bridge方式的配置原理和步骤。Bridge方式适用于服务器主机的虚拟化。

Bridge模式

问题

客户机安装完成后,需要为其设置网络接口,以便和主机网络,客户机之间的网络通信。事实上,如果要在安装时使用网络通信,需要提前设置客户机的网络连接。

KVM 客户机网络连接有两种方式:

?用户网络(User Networking):让虚拟机访问主机、互联网或本地网络上的资源的简单方法,但是不能从网络或其他的客户机访问客户机,性能上也需要大的调整。NAT方式。

?虚拟网桥(Virtual Bridge):这种方式要比用户网络复杂一些,但是设置好后客户机与互联网,客户机与主机之间的通信都很容易。Bridge方式。

本文主要解释Bridge方式的配置。

Bridge方式原理

Bridge方式即虚拟网桥的网络连接方式,是客户机和子网里面的机器能够互相通信。可以使虚拟机成为网络中具有独立IP的主机。

桥接网络(也叫物理设备共享)被用作把一个物理设备复制到一台虚拟机。网桥多用作高级设置,特别是主机多个网络接口的情况。

如上图,网桥的基本原理就是创建一个桥接接口br0,在物理网卡和虚拟网络接口之间传递数据。

Bridge方式的适用范围

服务器主机虚拟化。

网桥方式配置步骤

1、编辑修改网络设备脚本文件,增加网桥设备br0

vi /etc/sysconfig/network-scripts/ifcfg-br0

DEVICE="br0"

ONBOOT="yes"

TYPE="Bridge"

BOOTPROTO=static

IPADDR=10.0.112.39

NETMASK=255.255.255.0

GATEWAY=10.0.112.1

DEFROUTE=yes

上述配置将虚拟网卡配置在了10.0.112.* 网段。如果不需要静态地址,可以把配置地址的相关项屏蔽。如:

DEVICE="br0"

ONBOOT="yes"

TYPE="Bridge"

BOOTPROTO=dhcp

2、编辑修改网络设备脚本文件,修改网卡设备eth0

DEVICE="eth0"

NM_CONTROLLED="no"

ONBOOT="yes"

TYPE=Ethernet

BOOTPROTO=none

BRIDGE="br0"

NAME="System eth0"

HWADDR=44:37:E6:4A:62:AD

NM_CONTROLLED这个属性值,根据redhat公司的文档是必须设置为“no”的(这个值为“yes”表示可以由服务NetworkManager来管理。NetworkManager服务不支持桥接,所以要设置为“no”。),但实际上发现设置为“yes”没有问题。通讯正常。

3、重启网络服务

#service network restart

4、校验桥接接口

#brctl show

bridge name bridge id STP enabled interfaces

br0 8000.4437e64a62ad no eth0

客户机配置

客户机安装时注意,网络要选择用br0桥接方式。

图形化的方式:

文本方式:

编辑修改虚拟机配置文件 /etc/libvirt/qemu/v1.xml,增加如下内容

虚拟机启动后,验证网络接口是否正常:

# brctl show

bridge name bridge id STP enabled interfaces

br0 8000.4437e64a62ad no eth0

vnet0

NAT方式的影响

网桥方式的配置与虚拟机支持模块安装时预置的虚拟网络桥接接口virbr0没有任何关系,配置网桥方式时,可以把virbr0接口(即NAT方式里面的default 虚拟网络)删除。

# virsh net-destroy default

# virsh net-undefine default

# service libvirtd restart

NAT模式

问题

客户机安装完成后,需要为其设置网络接口,以便和主机网络,客户机之间的网络通信。事实上,如果要在安装时使用网络通信,需要提前设置客户机的网络连接。

KVM 客户机网络连接有两种方式:

?用户网络(User Networking):让虚拟机访问主机、互联网或本地网络上的资源的简单方法,但是不能从网络或其他的客户机访问客户机,性能上也需要大的调整。

NAT方式。

?虚拟网桥(Virtual Bridge):这种方式要比用户网络复杂一些,但是设置好后客户机与互联网,客户机与主机之间的通信都很容易。Bridge方式。

本文主要解释NAT方式的配置。

NAT方式原理

NAT方式是kvm安装后的默认方式。它支持主机与虚拟机的互访,同时也支持虚拟机访问互联网,但不支持外界访问虚拟机。

检查当前的网络设置:

#virsh net-list --all

Name State Autostart

-----------------------------------------

default active yes

default是宿主机安装虚拟机支持模块的时候自动安装的。

检查当前的网络接口:

#ifconfig

eth0 Link encap:EthernetHWaddr 44:37:E6:4A:62:AD

inet6 addr: fe80::4637:e6ff:fe4a:62ad/64 Scope:Link

UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1

RX packets:987782 errors:0 dropped:0 overruns:0 frame:0

TX packets:84155 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000

RX bytes:109919111 (104.8 MiB) TX bytes:12695454 (12.1 MiB) Interrupt:17

lo Link encap:Local Loopback

inet addr:127.0.0.1 Mask:255.0.0.0

inet6 addr: ::1/128 Scope:Host

UP LOOPBACK RUNNING MTU:16436 Metric:1

RX packets:4 errors:0 dropped:0 overruns:0 frame:0

TX packets:4 errors:0 dropped:0 overruns:0 carrier:0

collisions:0 txqueuelen:0

RX bytes:240 (240.0 b) TX bytes:240 (240.0 b)

virbr0 Link encap:EthernetHWaddr 52:54:00:B9:B0:96

inet addr:192.168.122.1 Bcast:192.168.122.255 Mask:255.255.255.0 UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1

RX packets:0 errors:0 dropped:0 overruns:0 frame:0

TX packets:2126 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0

RX bytes:0 (0.0 b) TX bytes:100387 (98.0 KiB)

virbr0-nic Link encap:EthernetHWaddr 52:54:00:B9:B0:96

BROADCAST MULTICAST MTU:1500 Metric:1

RX packets:0 errors:0 dropped:0 overruns:0 frame:0

TX packets:0 errors:0 dropped:0 overruns:0 carrier:0

collisions:0 txqueuelen:500

RX bytes:0 (0.0 b) TX bytes:0 (0.0 b)

其中virbr0是由宿主机虚拟机支持模块安装时产生的虚拟网络接口,也是一个switch和bridge,负责把内容分发到各虚拟机。

几个虚拟机管理模块产生的接口关系如下图:

从图上可以看出,虚拟接口和物理接口之间没有连接关系,所以虚拟机只能在通过虚拟的网络访问外部世界,无法从网络上定位和访问虚拟主机。

virbr0是一个桥接器,接收所有到网络192.168.122.*的内容。从下面命令可以验证:

# brctl show

bridge name bridge id STP enabled interfaces

virbr0 8000.525400b9b096 yes virbr0-nic

# route

Kernel IP routing table

Destination Gateway Genmask Flags Metric Ref Use Iface

192.168.122.0 * 255.255.255.0 U 0 0 0 virbr0

同时,虚拟机支持模块会修改iptables规则,通过命令可以查看:

# iptables -t nat -L -nv

Chain PREROUTING (policy ACCEPT 16924 packets, 2759K bytes)

pkts bytes target prot opt in out source destination

Chain POSTROUTING (policy ACCEPT 2009 packets, 125K bytes)

pkts bytes target prot opt in out source destination

421 31847 MASQUERADE all -- * * 192.168.122.0/24 !192.168.122.0/24 ----------->这条是关键,它配置了NAT功能。

Chain OUTPUT (policy ACCEPT 2011 packets, 125K bytes)

pkts bytes target prot opt in out source destination

# iptables -t filter -L -nv

Chain INPUT (policy ACCEPT 0 packets, 0 bytes)

pkts bytes target prot opt in out source destination

1 74 ACCEPT udp -- virbr0 * 0.0.0.0/0 0.0.0.0/0 udp dpt:53 ---->由libvirt脚本自动写入

0 0 ACCEPT tcp -- virbr0 * 0.0.0.0/0 0.0.0.0/0 tcp dpt:53 ---->由libvirt脚本自动写入

3 98

4 ACCEPT udp -- virbr0 * 0.0.0.0/0 0.0.0.0/0 udp dpt:67 ---->由libvirt脚本自动写入0 0 ACCEPT tcp -- virbr0 * 0.0.0.0/0 0.0.0.0/0 tcp dpt:67 ---->由libvirt脚本自动写入

178K 195M ACCEPT all -- * * 0.0.0.0/0 0.0.0.0/0 state RELATED,ESTABLISHED

---->iptables的系统预设

2 168 ACCEPT icmp -- * * 0.0.0.0/0 0.0.0.0/0 ---->iptables的系统预设

1148 216K ACCEPT all -- lo * 0.0.0.0/0 0.0.0.0/0 ---->iptables的系统预设

1 60 ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 state NEW tcp dpt:2

2 ---->iptables的系统预设16564 2721K REJECT all -- * * 0.0.0.0/0 0.0.0.0/0 reject-with icmp-host-prohibited

---->iptables的系统预设

Chain FORWARD (policy ACCEPT 0 packets, 0 bytes)

pkts bytes target prot opt in out source destination

3726 3485K ACCEPT all -- * virbr0 0.0.0.0/0 192.168.122.0/24 state

RELATED,ESTABLISHED ---->由libvirt脚本自动写入

3491 399K ACCEPT all -- virbr0 * 192.168.122.0/24 0.0.0.0/0 ---->由libvirt脚本自动写入0 0 ACCEPT all -- virbr0 virbr0 0.0.0.0/0 0.0.0.0/0 ---->由libvirt脚本自动写入

0 0 REJECT all -- * virbr0 0.0.0.0/0 0.0.0.0/0 reject-with icmp-port-unreachable ---->由

libvirt脚本自动写入

0 0 REJECT all -- virbr0 * 0.0.0.0/0 0.0.0.0/0 reject-with icmp-port-unreachable ---->由libvirt脚本自动写入

0 0 REJECT all -- * * 0.0.0.0/0 0.0.0.0/0 reject-with icmp-host-prohibited ---->iptables的系统预设

Chain OUTPUT (policy ACCEPT 181K packets, 138M bytes)

pkts bytes target prot opt in out source destination

如果没有default的话,或者需要扩展自己的虚拟网络,可以使用命令重新安装NAT。NAT方式的适用范围

桌面主机虚拟化。

创建步骤

#virsh net-define /usr/share/libvirt/networks/default.xml

此命令定义一个虚拟网络,default.xml的内容:

default

< /network>

也可以修改xml,创建自己的虚拟网络。

标记为自动启动:

#virsh net-autostart default

Network default marked as autostarted

启动网络:

#virsh net-start default

Network default started

网络启动后可以用命令brctl show 查看和验证。修改/etc/sysctl.conf中参数,允许ip转发:net.ipv4.ip_forward=1

客户机安装

客户机安装时注意,网络要选择用NAT方式。图形化的方式:

文本方式:

编辑修改虚拟机配置文件/etc/libvirt/qemu/v1.xml,增加如下内容

虚拟机启动后,验证网络接口是否正常:

# brctl show

bridge name bridge id STP enabled interfaces

virbr0 8000.525400b9b096 yes virbr0-nic

vnet0

Bridge方式的影响

Bridge方式配置出来的接口对NAT方式没有影响,因为NAT方式并没有使用物理网卡。但作为客户机,只能选择其中的一种。

客户机动态迁移

源机和目的机rhel版本必须一致

1 源端建立nfs

Vi /etc/exports

/var/lib/libvirt/images *https://www.doczj.com/doc/d311754661.html,(rw,no_root_squash,sync)

2 在目的端mount nfs

# mountstorage_host:/var/lib/libvirt/images /var/lib/libvirt/images

3 在目的端执行virsh

# virsh migrate --live GuestNameDestinationURL

DestinationURL指的是目的机的主机名或ip

例如:

# virsh migrate --live guest1-rhel6-64 qemu+ssh://https://www.doczj.com/doc/d311754661.html,/system

客户机自动启动

virshautostartTestServer

Domain TestServer marked as autostarted

# virshautostart --disable TestServer

Domain TestServer unmarked as autostarted

改变disk image大小

# qemu-img resize filename [+|-]size[K|M|G|T]

查看vol信息

# virshvol-info /images/secondimage.img

Name: secondimage.img

Type: file

Capacity: 20.00 GB

Allocation: 136.00 KB

创建存储池

基于分区

先分区,格式化

1 定义分区

# virsh pool-define-as guest_images_fsfs - - /dev/sdc1 - "/guest_images" Pool guest_images_fs defined

guest_images_fs pool名称

/devsdc1 分区

/guest_images mount点

2 确认

# virsh pool-list --all

Name State Autostart

-----------------------------------------

default active yes

guest_images_fs inactive no

3 建立mount点

# virsh pool-build guest_images_fs

Pool guest_images_fs built

# ls -la /guest_images

total 8

drwx------. 2 root root 4096 May 31 19:38 .

dr-xr-xr-x. 25 root root 4096 May 31 19:38 ..

# virsh pool-list --all

Name State Autostart

-----------------------------------------

default active yes

guest_images_fs inactive no

4 启动存储池

# virsh pool-start guest_images_fs

Pool guest_images_fs started

# virsh pool-list –all

Name State Autostart

-----------------------------------------

default active yes

guest_images_fs active no

5 自动启动

# virsh pool-autostartguest_images_fs

Pool guest_images_fs marked as autostarted

# virsh pool-list --all

Name State Autostart

-----------------------------------------

default active yes

guest_images_fs active yes

6 确认存储池

# virsh pool-info guest_images_fs

Name: guest_images_fs

UUID: c7466869-e82a-a66c-2187-dc9d6f0877d0

State: running

Capacity: 458.39 GB

Allocation: 197.91 MB

Available: 458.20 GB

# mount | grep /guest_images

/dev/sdc1 on /guest_images type ext4 (rw)

# ls -la /guest_images

total 24

drwxr-xr-x. 3 root root 4096 May 31 19:47 .

dr-xr-xr-x. 25 root root 4096 May 31 19:38 ..

drwx------. 2 root root 16384 May 31 14:18 lost+found

基于目录

1 定义存储池

#virsh pool-define-as guest_images_dirdir - - - - "/guest_images" Pool guest_images_dir defined

2 确认

# virsh pool-list --all

Name State Autostart

-----------------------------------------

default active yes

guest_images_dir inactive no

3 创建本地目录

# virsh pool-build guest_images_dir

Pool guest_images_dir built

# ls -la /guest_images

total 8

drwx------. 2 root root 4096 May 30 02:44 .

dr-xr-xr-x. 26 root root 4096 May 30 02:44 ..

# virsh pool-list --all

Name State Autostart

-----------------------------------------

default active yes

guest_images_dir inactive no

4 启动存储池

# virsh pool-start guest_images_dir

Pool guest_images_dir started

# virsh pool-list --all

Name State Autostart

-----------------------------------------

default active yes

guest_images_dir active no

5 自动启动

# virsh pool-autostartguest_images_dir

Pool guest_images_dir marked as autostarted

# virsh pool-list --all

Name State Autostart

-----------------------------------------

default active yes

guest_images_dir active yes

6 确认存储池

# virsh pool-info guest_images_dir

Name: guest_images_dir

UUID: 779081bf-7a82-107b-2874-a19a9c51d24c State: running

Capacity: 49.22 GB

Allocation: 12.80 GB

Available: 36.41 GB

# ls -la /guest_images

total 8

drwx------. 2 root root 4096 May 30 02:44 .

dr-xr-xr-x. 26 root root 4096 May 30 02:44 ..

创建vol

# virshvol-create-as guest_images_disk volume1 8G Vol volume1 created

# virshvol-create-as guest_images_disk volume2 8G

Vol volume2 created

# virshvol-create-as guest_images_disk volume3 8G

Vol volume3 created

# virshvol-list guest_images_disk

Name Path

-----------------------------------------

volume1 /dev/sdb1

volume2 /dev/sdb2

volume3 /dev/sdb3

克隆vol

#virshvol-clone --pool guest_images_disk volume3 clone1 Vol clone1 cloned from volume3

相关主题
文本预览
相关文档 最新文档