华为三层交换机连接服务器怎么做端口聚合?

华为三层交换机连接服务器怎么做端口聚合?,第1张

比如交换机名为a,用gigabitethernet 0/0/1 和 0/0/2与服务器连接

用console或telnet连接交换机后,进行配置

<a>system-view ;进入系统

[a]interface eth-trunk 1;建个聚合端口

[a-Eth-Trunk 1]port link-type trunk ;属性为透传,

[a-Eth-Trunk 1]port trunk allow-pass vlan xxxx/all;需要通过的vlan

[a-Eth-Trunk 1]q

[a]interface gigabitethernet 0/0/1 ;进入g 0/0/1端口

[a-gigabitethernet 0/0/1] eth-trunk 1 ; 加入Eth-Trunk 1

[a-gigabitethernet 0/0/1]q

[a]interface gigabitethernet 0/0/2 ;进入g 0/0/2端口

[a-gigabitethernet 0/0/2] eth-trunk 1 ; 加入Eth-Trunk 1

[a-gigabitethernet 0/0/2]q

网卡(NIC:Network Interface Card)聚合意思就是把若干个网卡规整到一个网卡上。如果配置合理的话,VMware ESX上面的网卡聚合可以同时为客体虚拟机提供入站和出站的负载均衡。负责均衡使得把多个可用网卡均分到更多的服务器上,因此即使在一个网卡、电缆或者交换机出现故障时,能允许客体虚拟机持续运行的情况下完成故障转移。 

  网卡聚合实例 

  配置VMware ESX Server虚拟网络有多种方法,多数管理员通常会采用如下的方式: 

  从中可以看到,两个管理网络都有两个物理适配器。虚拟机网络(内置客体虚拟机)也有两个物理适配器,如此做也可以带来一些容错上的优势: 

1 如果一个物理适配器出现故障的话,另外一个可以取而代之;  

2 如果连接一个物理适配器的光缆出现故障,可以使用另外一个适配器(光缆没问

题的那个);  

3 假定两个网卡连接到不同的交换器,如果一个交换器出现故障,可以使用连接到

可用交换器上面的那个网卡; 

  尽管VMware ESX属性介绍中声称网卡聚合可以实现负责均衡,但是基本的网卡聚合仅仅能够提供出站负载均衡。然而如果希望通过网卡聚合实现入站的负载均衡,就还有一些额外的工作需要做,需要配置VLAN中继器和以太网交换器(连接在这些VMware ESX服务器的物理适配器)上的端口通道。SearchVMwarecom的作者Scott Lowe has曾经写过一些文章介绍VLAN配置,这几篇文章我之前一直有推荐: 

ESX服务器、网卡分组和VLAN链路聚合

 2 VLAN和端口分组  

VI3的VLAN配置:VST、EST和VGT标记 

  在VMware ESX Server里配置网卡聚合 

      对ESX服务器内的网卡进行分组另外还需要两个或者两个以上网卡。实际上在VMware ESX服务器内配置网卡聚合非常简单。首先在ESX服务器上至少需要两个物理适配器,如上图所示,很多管理员都会把管理网络和客体虚拟机网络隔离开来。因此例如我们在服务器中有三个适配器,其中一个置于隔离的虚拟机交换器内用于管理网络,另外两个物理适配器用于虚拟机网络。如果另外还有一个vSwitch0的话,最好用这个作为管理网络和VMnet0。 

  如果希望在管理网络(VMkernel和iSCSI)和虚拟机(客体机)网络上同时都配置网卡聚合的话,也就是说在我们这个场景中我们仅仅在虚拟机网络上配置了网卡聚合。首先需要创建一个新的vSwitch然后标识为“虚拟机网络”。该vSwitch很有可能就被命名为vSwitch1,在vSwitch上增加两个物理适配器。

       最后需要通过修改每一台虚拟机并且把其连接到新的端口组上,以修改每一台虚拟机客体系统。

首先要确定 你服务器用的是什么模式的网卡聚合 如果是LACP才需要在交换机上配置聚合命令,以下是华为交换机配置命令可供参考

interface eth-trunk1 #创建eth-trunk1的聚合端口

port link-type access #接口模式access

port default vlan 5 #服务器段VLAN5

mode lacp #聚合模式LACP

interface g 0/0/1

eth-trunk1 #将端口G1划到聚合组中,该接口下不要配置别的命令

interface g 0/0/2

eth-trunk1 #将端口G2划到聚合组中,改接口下不要配置别的命令

q #退出

save #保存

纯手打 望采纳

微服务架构,主要是中间层分解,将系统拆分成很多小应用(微服务),微服务可以部署在不同的服务器上,也可以部署在相同的服务器不同的容器上。当应用的故障不会影响到其他应用,单应用的负载也不会影响到其他应用,其代表框架有 Spring cloud、Dubbo 等。

微服务 Microservices 之父,马丁福勒,对微服务大概的概述如下:就目前而言,对于微服务业界并没有一个统一的、标准的定义(While there is no precise definition of this architectural style ) 。但通常在其而言,微服务架构是一种架构模式或者说是一种架构风格,它提倡将单一应用程序划分成一组小的服务,每个服务运行独立的自己的进程中,服务之间互相协调、互相配合,为用户提供最终价值。服务之间采用轻量级的通信机制互相沟通(通常是基于 HTTP 的 RESTful API ) 。每个服务都围绕着具体业务进行构建,并且能够被独立地部署到生产环境、类生产环境等。另外,应尽量避免统一的、集中式的服务管理机制,对具体的一个服务而言,应根据业务上下文,选择合适的语言、工具对其进行构建,可以有一个非常轻量级的集中式管理来协调这些服务。可以使用不同的语言来编写服务,也可以使用不同的数据存储。

六种常见的微服务架构模式:

1、聚合器微服务设计模式

聚合器调用多个服务实现应用程序所需的功能。它可以是一个简单的Web页面,将检索到的数据进行处理展示。它也可以是一个更高层次的组合微服务,对检索到的数据增加业务逻辑后进一步发布成一个新的微服务,这符合DRY原则。另外,每个服务都有自己的缓存和数据库。如果聚合器是一个组合服务,那么它也有自己的缓存和数据库。聚合器可以沿X轴和Z轴独立扩展。

2、代理微服务设计模式

这是聚合模式的一个变种,在这种情况下,客户端并不聚合数据,但会根据业务需求的差别调用不同的微服务。代理可以仅仅委派请求,也可以进行数据转换工作。

3、链式微服务设计模式

这种模式在接收到请求后会产生一个经过合并的响应,在这种情况下,服务A接收到请求后会与服务B进行通信,类似地,服务B会同服务C进行通信。所有服务都使用同步消息传递。在整个链式调用完成之前,客户端会一直阻塞。因此,服务调用链不宜过长,以免客户端长时间等待。

4、分支微服务设计模式

这种模式是聚合器模式的扩展,允许同时调用两个微服务链。

5、数据共享微服务设计模式

自治是微服务的设计原则之一,就是说微服务是全栈式服务。但在重构现有的“单体应用(monolithic application)”时,SQL数据库反规范化可能会导致数据重复和不一致。因此,在单体应用到微服务架构的过渡阶段,可以使用这种设计模式,在这种情况下,部分微服务可能会共享缓存和数据库存储。不过,这只有在两个服务之间存在强耦合关系时才可以。对于基于微服务的新建应用程序而言,这是一种反模式。

6、异步消息传递微服务设计模式

虽然REST设计模式非常流行,但它是同步的,会造成阻塞。因此部分基于微服务的架构可能会选择使用消息队列代替REST请求/响应。

基础配置信息

常用的三种Bond模式

配置过程以mode=6为例,其它7种模式请参考扩展阅读

mode=0:平衡负载模式,有自动备援,但需要”Switch”支援及设定。 mode=1:自动备援模式,其中一条线若断线,其他线路将会自动备援。 mode=6:平衡负载模式,有自动备援,不必”Switch”支援及设定。

物理接口

2015610165454336jpg (274×145)

CentOS版本

复制代码代码如下:

datanode01:~>cat /etc/redhat-release

CentOS release 64 (Final)

禁用NetworkManager

复制代码代码如下:

#立即关闭禁用NetworkManager并禁用开机自启动

/etc/initd/NetworkManager stop

chkconfig NetworkManager off

/etc/initd/network restart

关闭iptables和selinux(可选)

复制代码代码如下:

#立即关闭iptables并禁用开机自启动

/etc/initd/iptables stop

chkconfig iptables off

#立即关闭selinux并永久禁用

setenforce 0

sed -i ‘s/SELINUX=enforcing/SELINUX=disabled/‘ /etc/selinux/config

修改主机名

复制代码代码如下:

vi /etc/sysconfig/network

NETWORKING=yes

HOSTNAME=namenode01

#刷新生效

hostname namnode01

source /etc/sysconfig/network

配置IP

私有地址

复制代码代码如下:

cd /etc/sysconfig/network-scripts

[root@datanode09 network-scripts]# cat ifcfg-eth3

DEVICE=eth3

ONBOOT=yes

BOOTPROTO=none

IPADDR=101294619

NETMASK=2552552550

IPV6INIT=no

USERCTL=no

双网卡绑定

复制代码代码如下:

cd /etc/sysconfig/network-scripts

#编辑eth0

cat > ifcfg-eth0 << EOF

DEVICE=eth0

ONBOOT=yes

BOOTPROTO=none

USERCTL=no

MASTER=bond0

EOF

#编辑eth2

cat > ifcfg-eth2 << EOF

DEVICE=eth2

ONBOOT=yes

BOOTPROTO=none

USERCTL=no

MASTER=bond0

EOF

#编辑bond0

cat > ifcfg-bond0 << EOF

DEVICE=bond0

TYPE=Ethernet

ONBOOT=yes

BOOTPROTO=none

IPADDR=1033214

NETMASK=2552552550

GATEWAY=10331

IPV6INIT=no

USERCTL=no

EOF

#设置bond参数,注意mode选择

cat > /etc/modprobeconf << EOF

alias bond0 bonding

options bond0 miimon=100 mode=6

EOF

#加入开机自启动参数

cat >> /etc/rclocal << EOF

ifenslave bond0 eth0 eth2

EOF

#重启网卡

service network restart

#使绑定网卡立即生效

ifenslave bond0 eth0 eth2

#测试绑定网络

ping 10331

常用3种网卡绑定模式对比

mode=0

中断任意一条链路或恢复链路,网络0丢包

优点:流量提高1倍

缺点:需要接入同一交换机做聚合配置,无法保证物理交换机高可用(Cisco似乎有解决方案?)

mode=1

中断任意一条链路丢失1-3个包(秒),恢复链路时0丢包

优点:交换机无需配置

缺点:如上

mode=6

中断任意一条链路0丢包,恢复链路时丢失10-15个包(秒)

优点:交换机无需配置,流量提高1倍

Windows Server 2012的推出被称为“云操作系统“,想必这个操作系统在虚拟化领域,在网络和存储层面,在接入和安全层面都会有很有实力的功能体现。今天给大家介绍的网卡聚合能力就是充分利用汇总方式提高服务器整体网络性能,进而实现在高密度业务负载环境,高可用网络环境下的需求,当然除了网卡聚合功能单方面提升消除CPU的瓶颈也是重点,例如Offload卡,SRIOV, RSS,VMQ队列等等技术在Server 2012中你都能找到配套的核心技术支撑。今天这篇博客重点介绍一下Windows Server 2012中网卡聚合的功能。

说到网卡聚合,可能大家并不陌生,而且这个在”虚拟化世界“里尤为重要的功能,原来Windows Server 2008 R2中并不能提供支持,而是需要依靠HP,DELL,Intel,Broadcom等公司自己提供的软件进行设置和支持,但是这是不够的,要知道通过一个硬件厂商提供的聚合功能软件仅能对同种品牌的网卡进行统一的支持,这对于一个要求具有更多选择权和灵活性的数据中心而言是不够好的。当然你知道的,在Windows Server 2012中我们苦等的内置的,虚拟化环境所依赖的功能终于实现了在操作系统中的预置;因此充分了解合理利用这个功能是十分有益的。

那么什么是网络聚合或者Windows Server 2012中定义的网络聚合?在Server 2012中网络聚合有种称谓叫做LBOF(Load Balance and failover)字面上也很好理解,就是负载均衡同时实现故障切换功能的网络通道,熟悉这个LBOF灰常有意义,因为实现和查看网卡聚合状态需要用到的Powershell CMDLET就涉及了这个词汇;有了这个操作系统层面的功能,就可以将不同品牌的同质的网卡进行组合实现:

1 网络带宽捆绑

2 当网络组件出现故障时可以被检测到并自动进行故障转移

举例来说如果你不是配置成“主备”模式而是“双活”模式的网卡聚合,那么两个1GbE的千兆网卡可以实现2Gb的总吞吐,如果是两个万兆网卡就可以实现20Gb的总吞吐以此类推。Windows Server 2012支持多少个网卡进行捆绑呢?答案是32个!这是个绝对足够大的带宽:)

Server 2012支持两种网络聚合模式,在配置网络聚合的时候默认的是选择第一种模式:

交换机独立模式

这种模式最为通用,因为不要求交换机参与网络聚合,因此交换机并不知道在聚合网络中的网卡属于主机中一个网卡聚合组,所以网卡可以连接不同的交换机不过交换机独立模式并不要求聚合组中的网卡连接到不同的交换机。

而且在连接不同交换机时采用的是主备模式,只有在连接在同一交换机时才可以实现负载均衡聚。

交换机依赖模式

这种模式需要交换机参与网络聚合,并且要求所有网络聚合组网卡连接到同一个物理交换机或者以级联多交换机方式实现的对外显示为单一物理交换机的方式;根据交换机支持的模式可以有两种模式选择:

通用的静态聚合模式即IEEE 8023ad

这种模式需要在交换机上静态设置指定汇聚组中的网卡连接。由于这种方式需要静态指定,因此没有动态协商协议机制帮助交换机判断线缆连接的正确与否或是否有其他错误导致聚合失败。

动态聚合模式即IEEE 8021ax或LACP(LinkAggregationControlProtocol 链路汇聚控制协议)

这种模式由于有了LACP协议的支持,可以动态的识别服务器和交换机的连接,进而实现动态地创建聚合组,添加和移除组成员等工作,现在多数交换机都支持LACP即8021ax协议,不过也大多需要在服务器连接的交换机端口中手工启用此功能。

通过图形方法配置,如果在Server 2012中启用了图形界面管理功能,可以利用服务器管理器简单的创建网络聚合。

当然,通过Powershell命令行是个很好的方式,先看看可以针对LBFO进行哪些操作:

创建一个网卡聚合组“NIC Teaming”,将所有本机物理网卡添加到这个组中,并且设置模式为交换机独立模式,负载均衡模式为默认哈希:

看看创建之后的网络设备,是不是多了一个NIC Teaming网卡?

当然,你也可以通过Powershell看到这个网络聚合网卡的状态。

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » 华为三层交换机连接服务器怎么做端口聚合?

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情