当前位置:文档之家› AIX系统cpu、内存、网卡、硬盘、HBA卡等硬件信息查看

AIX系统cpu、内存、网卡、硬盘、HBA卡等硬件信息查看

AIX系统cpu、内存、网卡、硬盘、HBA卡等硬件信息查看
AIX系统cpu、内存、网卡、硬盘、HBA卡等硬件信息查看

AIX系统cpu、内存、网卡、硬盘、HBA卡等硬件信息查看

查看AIX系统的主机型号、序列号、CPU、内存、硬盘、网卡、网卡物理插槽位置信息、是否配置以太网通道、网卡链路状态、当前网络速率、HBA卡、HBA卡物理插槽位置信息、HBA卡WWN、HBA卡支持速率、HBA卡当前速率、VG、PV、LV信息、该主机当前由哪台HMC管理、配置了多少磁带机驱动器tape driver等信息,可以通过一段脚本收集全部信息。

一、查看型号、序列号、CPU、内存、HMC

型号:

#uname -M

IBM,8204-E8A

序列号:

#uname -u

IBM,0206*****

CPU数量

#lsdev -Cc processor

proc0 Available 00-00 Processor

proc2 Available 00-02 Processor

proc4 Available 00-04 Processor

proc6 Available 00-06 Processor

proc8 Available 00-08 Processor

proc10 Available 00-10 Processor

proc12 Available 00-12 Processor

proc14 Available 00-14 Processor

CPU主频

#lsattr -El proc0

frequency 4204000000 Processor Speed False

smt_enabled true Processor SMT enabled False

smt_threads 2 Processor SMT threads False

state enable Processor state False

type PowerPC_POWER6 Processor type False

查看CPU是否64位

#prtconf -c

CPU Type: 64-bit

内存信息:

#lsattr -El mem0

ent_mem_cap I/O memory entitlement in Kbytes False

goodsize 63744 Amount of usable physical memory in Mbytes False mem_exp_factor Memory expansion factor False

size 63744 Total amount of physical memory in Mbytes False

var_mem_weight Variable memory capacity weight False

查看该机当前由哪台HMC管理

#lsrsrcIBM.ManagementServer

Resource Persistent Attributes for IBM.ManagementServer resource 1:

Name= "123.123.123.9"

Hostname= "123.123.123.9"

ManagerType= "HMC"

LocalHostname= "123.123.234.132"

ClusterTM= "9078-160"

ClusterSNum= ""

ActivePeerDomain = ""

NodeNameList= {"testdb1"}

型号、序列号、内存统一信息:

#lsattr -El sys0

fwversion IBM,EL350_085 Firmware version and revision levels False modelname IBM,8204-E8A Machine name False

realmem 65273856 Amount of usable physical memory in Kbytes False systemid IBM,0206***** Hardware system identifier False

二、查看磁盘信息:

#lspv

hdisk0 00cb01e637be5983 rootvg active

hdisk1 00cb01e6dd9045e6 rootvg active

#lspath

Enabled hdisk0 sas0

Enabled hdisk1 sas0

Available ses0 sas0

Available ses1 sas0

列出所有磁盘设备

#lsdev -Cc disk

hdisk0 Available 02-08-00 SAS Disk Drive

hdisk1 Available 02-08-00 SAS Disk Drive

查看磁盘容量

#bootinfo -s hdisk0

140013

查看磁盘属性

#lsattr -El hdisk0

reserve_policyno_reserve Reserve Policy True

size_in_mb 146800 Size in Megabytes False

查看磁盘物理插槽信息

#lscfg -vpl hdisk0

hdisk0 U78A0.001.DNWK9W6-P2-D3 SAS Disk Drive (146800 MB)

Hardware Location Code......U78A0.001.DNWK9W6-P2-D3

以上命令适用于现场查看,需要查看哪些硬盘,就执行几条命令,但是当需要用户帮忙采集信息,而系统磁盘数量未知的情况下就难以胜任了,以下脚本列出本机所有磁盘信息并对每个磁盘执行bootinfo -s查看磁盘容量,执行lsattr -El查看磁盘属性、执行lscfg -vpl查看磁盘物理插槽、lspv查看磁盘pv信息等。

1. echo "#lsdev -Cc disk"

2. lsdev -Cc disk

3. for i in `lsdev -Cc disk|awk '{print $1}'`;

4. do

5. echo "nInformation about "$i "n#bootinfo -s" $i

6. bootinfo -s $i

7. echo "n#lsattr -El" $i

8. lsattr -El $i

9. echo "n#lscfg -vpl " $i

10. lscfg -vpl $i

11. echo "n#lspv " $i

12. lspv $i

13. done

复制代码

三、查看网卡信息

#lsdev -Cc adapter|grepent

ent0 Available Logical Host Ethernet Port (lp-hea)

ent1 Available Logical Host Ethernet Port (lp-hea)

ent2 Available 04-00 2-Port 10/100/1000 Base-TX PCI-Express Adapter (14104003)

ent3 Available 04-01 2-Port 10/100/1000 Base-TX PCI-Express Adapter (14104003)

ent4 Available EtherChannel / IEEE 802.3ad Link Aggregation

以上信息显示ent4通过以太网通道绑定后生成的网卡,执行lsattr -El ent4可以查看ent4由哪些网卡绑定而成,是主备模式、负载均衡模式或者负载均衡+主备模式。

#lsattr -El ent4

adapter_names ent0 EtherChannel Adapters True

auto_recovery yes Enable automatic recovery after failover True

backup_adapter ent2 Adapter used when whole channel fails True

mode standard EtherChannel mode of operation True

netaddr 0 Address to ping True

#lscfg -vpl ent2

ent2 U78A0.001.DNWK58T-P1-C1-T1 2-Port 10/100/1000 Base-TX PCI-Express Adapter (14104003)

Hardware Location Code......U78A0.001.DNWK58T-P1-C1-T1

#lsattr -El en4

netaddr 123.123.123.61 Internet Address True

netmask 255.255.255.128 Subnet Mask True

state up Current Interface Status True

#netstat -in

#netstat -rn

#ifconfig -a

#ifconfig -l

查看网卡当前连接状态、链路速率

#netstat -v en4 |grep -i Speed

Media Speed Selected: Autonegotiate

Media Speed Running: 1000 Mbps / 1 Gbps, Full Duplex

External-Network-Switch (ENS) Port Speed: 1000 Mbps / 1 Gbps, Full Duplex Media Speed Selected: Auto negotiation

Media Speed Running: 1000 Mbps Full Duplex

在网卡数量未知的情况下,可以采用以下脚本一次性收集所有网卡信息:

1. echo "#lsdev -Cc adapter|grepent"

2. lsdev -Cc adapter|grepent

3. for i in `lsdev -Cc adapter|awk '{print $1}' |grepent`;

4. do

5. echo "nInformation about "$i "n#lsattr -El" $i

6. lsattr -El $i

7. echo "n#lscfg -vl " $i

8. lscfg -vl $i

9. done

10. for i in `ifconfig -l`;

11. do

12. echo "nInformation about "$i "n#lsattr -El" $i

13. lsattr -El $i

14. echo "n#netstat -v " $i

15. netstat -v $i

16. echo "n#netstat -v " $i "|grep -i Speed"

17. netstat -v $i |grep -i Speed

18. done

复制代码

四、HBA卡信息

#lsdev -Cc adapter|grep fcs

fcs0 Available 01-08 FC Adapter

fcs1 Available 01-09 FC Adapter

fcs2 Available 04-08 FC Adapter

fcs3 Available 04-09 FC Adapter

#lsattr -El fcs0

查看HBA卡的物理插槽、WWN:

#lscfg -vpl fcs0

fcs0 U78A0.001.DNWK9W6-P1-C4-T1 FC Adapter

Network Address.............10000000C9B54A92

Hardware Location Code......U78A0.001.DNWK9W6-P1-C4-T1

以上Network Address即为fcs0的WWN。

在HBA卡数量未知的情况下,可以采用以下脚本一次性收集所有HBA卡的物理插槽、WWN 信息,这点项目中非常经常用到,因为需要收集HBA卡的WWN用于SAN交换机配置ZONE 信息、存储端也需要WWN用于Mapping LUN:

1. echo "#lsdev -Cc adapter|grep fcs"

2. lsdev -Cc adapter|grep fcs

3. for i in `lsdev -Cc adapter|grepfcs|awk '{print $1}'`;

4. do

5. echo "nInformation about "$i "n#lsattr -El" $i

6. lsattr -El $i

7. echo "n#lscfg -vpl " $i

8. lscfg -vl $i

9. echo "n#fcstat " $i

10. fcstat $i

11. done

复制代码

五、磁带tape信息

#lsdev -Cc tape

rmt0 Available 02-08-00 SAS 4mm Tape Drive

#lsattr -El rmt0

#lscfg -vpl rmt0

rmt0 U78A0.001.DNWK9W6-P2-D1 SAS 4mm Tape Drive (80000 MB)

Hardware Location Code......U78A0.001.DNWK9W6-P2-D1

当主机接了磁带库,tape driver数量未知的情况下,可以采用以下脚本一次性收集所有tape driver信息:

1. echo "#lsdev -Cc tape"

2. lsdev -Cc tape

3. for i in `lsdev -Cc tape|awk '{print $1}'`

4. do

5. echo "nInformation about "$i "n#lsattr -El" $i

6. lsattr -El $i

7. echo "n#lscfg -vl " $i

8. lscfg -vl $i

9. done

复制代码

六、查看VG、PV、LV信息

查看系统中所有VG

#lsvg

rootvg

vgora

查看当前active的VG

#lsvg -o

vgora

rootvg

#lsvg -p rootvg

rootvg:

PV_NAME PV STATE TOTAL PPs FREE PPs FREE DISTRIBUTION hdisk0 active 558 429 111..68..27..111..112

hdisk1 active 558 437 111..76..27..111..112

#lsvg -l rootvg

查看所有PV

#lspv

hdisk0 00cb01e637be5983 rootvg active

hdisk1 00cb01e6dd9045e6 rootvg active

#lspv -l hdisk0

当VG数量未知时,可用以下脚本一次性收集所有VG、LV信息(可结合上文disk信息)echo "#lsvg "

lsvg

echo "#lsvg -o"

lsvg -o

for i in `lsvg`;

do

echo "nInformation about VG "$i "n#lsvg " $i

lsvg $i

echo "n#lsvg -l " $i

lsvg -l $i

echo "n#lsvg -p " $i

lsvg -p $i

echo "n#lsvg -M " $i

lsvg -M ${i}

done

RAID 卡知识点整理

RAID 卡知识点整理一. RAID 参数功能比较:

1)Perc5,6卡支持Drive 迁移(不同控制器间硬盘迁移)和漫游(同一个控制器下, 漫游要在Offline下做),Perc4只支持漫游(同一控制器下,漫游要在Offline下做) PERC4 卡的raid 信息存在卡和硬盘上,换卡需要先清掉新卡里面的信息,再从硬盘读取, perc5 ,6只存在硬盘上面.更换卡直接从硬盘读取. RAID卡key的作用: 没有key 无法在BIOS里面设置成RAID模式,只能 SCSI模式. 2)电池充放电周期: approximately every 3 months 电池充放电时间:Learn cycle discharge cycle: approximately 3 hours Learn cycle charge cycle: approximately 4 hour 3)SAS 6/iR 与SAS 5/iR 比较 6/iR支持Expander:Support for up to 10 devices in a Virtual Disk (RAID 0) 6/iR 支持global HS: Maximum of 2 Global Hot spares 6/iR 支持OMSS 软件管理在线配置,5/iR只能进入ctrl+C配置界面.

二. PERC3 ,PERC4 RAID 10配置方法: 进入RAID选择new configuration,不要选easy configuration 用空格健先选中两块做RAID1的硬盘,然后敲回车,再选中两块要做raid1的硬盘,再回车,如下图. 这时按F10进入下图,确认SPAN=YES,选中accept

详解双网卡绑定

Linux下的双网卡绑定bond0 em1 em2 一、什么是bonding Linux bonding 驱动提供了一个把多个网络接口设备捆绑为单个的网络接口设置来使用,用于网络负载均衡及网络冗余 二、bonding应用方向 1、网络负载均衡 对于bonding的网络负载均衡是我们在文件服务器中常用到的,比如把三块网卡,当做一块来用,解决一个IP地址,流量过大,服务器网络压力过大的问题。对于文件服务器来说,比如NFS或SAMBA文件服务器,没有任何一个管理员会把内部网的文件服务器的IP地址弄很多个来解决网络负载的问题。如果在内网中,文件服务器为了管理和应用上的方便,大多是用同一个IP地址。对于一个百M的本地网络来说,文件服务器在多个用户同时使用的情况下,网络压力是极大的,特别是SAMABA和NFS服务器。为了解决同一个IP地址,突破流量的限制,毕竟网线和网卡对数据的吞吐量是有限制的。如果在有限的资源的情况下,实现网络负载均衡,最好的办法就是bonding 2、网络冗余 对于服务器来说,网络设备的稳定也是比较重要的,特别是网卡。在生产型的系统中,网卡的可靠性就更为重要了。在生产型的系统中,大多通过硬件设备的冗余来提供服务器的可靠性和安全性,比如电源。bonding 也能为网卡提供冗余的支持。把多块网卡绑定到一个IP地址,当一块网卡发生物理性损坏的情况下,另一块网卡自动启用,并提供正常的服务,即:默认情况下只有一块网卡工作,其它网卡做备份 三、bonding实验环境及配置 1、实验环境 系统为:CentOS,使用2块网卡(em1、em2 ==> bond0)来实现bonding技术 2、bonding配置 第一步:先查看一下内核是否已经支持bonding 1)如果内核已经把bonding编译进内核,那么要做的就是加载该模块到当前内核;其次查看ifenslave该工具是否也已经编译 modprobe -l bond* 或者modinfo bonding modprobe bonding lsmod | grep 'bonding' echo 'modprobe bonding &> /dev/null' >> /etc/rc.local(开机自动加载bonding模块到内核) which ifenslave 注意:默认内核安装完后就已经支持bonding模块了,无需要自己手动编译 2)如果bonding还没有编译进内核,那么要做的就是编译该模块到内核 (1)编译bonding tar -jxvf kernel-XXX.tar.gz cd kernel-XXX

服务器双网卡绑定知识讲解

双网卡绑定实践 Windows平台下常用的双网卡绑定软件有Intel PROSet、NICExpress。本文主要介绍用Intel PROset实现双网卡绑定的方法。 英特尔PROSet 是一个高级的配置实用程序,可用来测试英特尔网络适配器并配置标准和高级功能。通常Intel网卡的驱动包中就包含这个程序,在安装驱动的时候PROSet默认是被安装的。 测试环境: 测试机:R525 G3,Intel双千兆网卡 OS:windows 2003 server 企业版32位 终端:联想笔记本(用于测试服务器双网卡绑定效果) 步骤: 1、打开设备管理器,双击任意一块Intel 82576; 注意R525 G3默认有3块网卡,82574L是管理网口 2、在弹出的配置对话框中,选择分组页面。此时由于系统中的网卡没有进行绑定,因此此

时组下拉列表框是灰色不可选的,单击“新组”; 3、在弹出的“新组向导”对话框中,填写组的名称,下一步; 4、钩选需要绑定的两个网卡,下一步;

5、这里列出了可选择的网卡绑定的模式,常用的是容错和负载平衡。这里我们选择容错,单击下一步; 6、完成向导;

7、此时我们可以看到刚才的分组页面中组的下拉列表中已经有team1; 8、同时弹出的还有team1的属性对话框,单击设置页面,可以看到其中一块网卡状态为“活动”,另一块网卡装状态为“待命”。在此界面中还可进行删除组和修改组的操作,单击“修改组”;

9、在弹出的对话框中,可以设置双网卡的主从关系,如不进行设定,此关系是不固定的。即:当断掉当前活动状态的主网口时,待命的网口将接替主网口的位置,对外提供服务,并成为主网口。当之前断开的网口恢复后,主从关系不会改变,该网口变为待命状态。 10、固定主从关系,设置当前活动的网口为主适配器,待命网口为次适配器;

RAID卡配置说明

此文档为自行整理,非官方提供资料,仅供参考。疏漏之处敬请反馈。 对RAID进行操作很可能会导致数据丢失,请在操作之前务必将重要数据妥善备份,以防万一。 名称解释: Disk Group:磁盘组,这里相当于是阵列,例如配置了一个RAID5,就是一个磁盘组 VD(Virtual Disk):虚拟磁盘,虚拟磁盘可以不使用阵列的全部容量,也就是说一个磁盘组可以分为多个VD PD(Physical Disk):物理磁盘 HS:Hot Spare 热备 Mgmt:管理 【一】,创建逻辑磁盘 1、按照屏幕下方的虚拟磁盘管理器提示,在VD Mgmt菜单(可以通过CTRL+P/CTRL+N切换菜单),按F2展开虚拟磁盘创建菜单 2、在虚拟磁盘创建窗口,按回车键选择”Create New VD”创建新虚拟磁盘

3、在RAID Level选项按回车,可以出现能够支持的RAID级别,RAID卡能够支持的级别有 RAID0/1/5/10/50,根据具体配置的硬盘数量不同,这个位置可能出现的选项也会有所区别。 选择不同的级别,选项会有所差别。选择好需要配置的RAID级别(我们这里以RAID5为例),按回车确认。

4、确认RAID级别以后,按向下方向键,将光标移至Physical Disks列表中,上下移动至需要选择的硬盘位置,按空格键来选择(移除)列表中的硬盘,当选择的硬盘数量达到这个RAID级别所需的要求时,Basic Settings的VD Size中可以显示这个RAID的默认容量信息。有X标志为选中的硬盘。 选择完硬盘后按Tab键,可以将光标移至VD Size栏,VD Size可以手动设定大小,也就是说可以不用将所有的容量配置在一个虚拟磁盘中。如果这个虚拟磁盘没有使用我们所配置的RAID5阵列所有的容量,剩余的空间可以配置为另外的一个虚拟磁盘,但是配置下一个虚拟磁盘时必须返回VD Mgmt创建(可以参考第13步,会有详细说明)。VD Name根据需要设置,也可为 空。 注:各RAID级别最少需要的硬盘数量,RAID0=1 RAID1=2 RAID5=3 RAID10=4 RAID50=6

LSI SAS阵列卡组建RAID介绍

raid的组建其实非常简单 1、先装阵列卡到电脑上面(不装硬盘),装驱动 2、关机,装硬盘 3、开机,进入raid的BIOS的设置(根据卡的不同的,进入方式不能,如Crtl+M、Crtl+S等) 4、可以以下图为依据,模仿去做! LSI磁盘阵列卡进入配置界面的快捷键是Ctrl+M,按住Ctrl+M后等待3秒便进入界面。在管理菜单中可以看到几个选项: Configure(配置)、initialize(初始化)、Objects(对象)、Rebuild(重建)、Check Consistency(检查一致性)。

我们使用了2块146GB的SAS硬盘开始组建RAID。选择Configure可以看到: Easy Configuration(容易配置)、New Configuration(新配置)、View/Add Configuration(查看/添加配置)、Clear Configuration(清除配置)、Select Boot Drive(选择启动驱动器). 组建RAID可以选择Easy Configuration、New Configuration这两个选项,步骤基本上是一致的。defines physical arrays an array will automatically become a vd (物理定义数组的数组,将自动成为vdDriv) 继续选择Easy Configuration后,出现了两个硬盘信息1、3READY。注意屏幕下方的提示字幕,按住空格键选择硬盘。 连续按两下回车之后信息已经改变,对比上图,按F10继续选择。

按空格后按F10继续选择。 注意屏幕中灰色地方,此时按住空格可以选择RAID模式,因为只有两块硬盘,因此可选的阵列模式只有RAID0、1。

dell服务器双网卡绑定与端口聚合

Broadcom Gigabit Ethernet Adapter Teaming 任何可用的千兆BRODCOM网卡都可以配置为TEAM的一部分.TEAMING是一种将多块千兆BRODCOM网卡绑定作为一个虚拟网卡.好处就是负载均衡. 通过选择每一个可用的千兆BRODCOM网卡并添加它们到负载均衡成员栏来创建TEAM.对于用户和应用程序,只看到一个虚的网卡. 负载均衡组中的成员共享绑定的数据流. 在一个基本的成员区域中,任一个千兆BRODCOM网卡都可以被指定为主成员负责数据流的控制,而指定为备用成员的网卡只有在所有的主 成员网卡都失败时,才开始接管数据流.一旦任一个主成员网卡恢复,数据马上由该主成员控制. 创建teaming包含下列几个步骤: * 打开BASP属性窗口 * 创建teams * 添加网卡到teams * 分配一个IP地址给teamss * 重启机器 BASP是适用于windows2003,windows2000,windowsNT,Redhat Liunx,NetWare的一个broadcom的中介型驱动程 序,需要先安装对应的broadcom网卡驱动程序. 目前它提供了负载均衡;错误冗余;VLAN高级功能,都通过创建teaming来实现. 注意: 一个team可以包含1到8个网卡,每个网卡都可以指定为主成员或备用成员. BASP的负载均衡;错误冗余功能支持与第三方厂商网卡在同一个team中协同工作. BASP FOR Windows 2000 & 20003 & NT提供以下选项: - 支持下列网卡作为故障应急(failover) Alteon AceNic,3COM 10/100 Server adapters;intel 10/1000 server

raid卡使用说明书

第一章 LSI SAS RAID卡简介 本技术手册提供了LSI SAS RAID卡(9260-8i 8口RAID卡和9280-24i4e 24口RAID卡)的性能、安装指导、RAID阵列的配置和维护等信息。 1.1 LSI 9260-8i 适配卡介绍 LSI 9260-8i,是一款8通道PCI-E x8的SAS RAID控制卡。LSI 9260-8i主要应用于企业存储,NAS存储,工作组和网站服务器,视频流/视频编辑工作站,备份和安全系统等领域。 1.2 产品特性 ? LSI SAS2108 6Gb/s RAID-on-Chip - 800MHz PowerPC ? 512MB 800MHz DDRII cache memory ?PCI-Express x8 ?2个miniSAS 端口(SFF-8087),可支持8块SAS或SATA或者SSD 硬盘(3Gb/s和6Gb/s) ?通过SAS expanders 支持128个设备 ?可选支持电池备份 ?Low Profile ?支持RAID 0, 1, 5, 6。 ?支持RAID spans 10,50,60 ?支持多组 RAID ?最多支持64个逻辑盘 ?支持BIOS启动 ?自动侦测加入/移除磁盘与自动磁盘阵列重建 ?自动 RAID 重建 ?支持SSD ?支持负载均衡 ?支持64位LBA,提供可大于2TB的磁盘空间 ?最大支持64TB LUN ?支援S.M.A.R.T数组监控,可了解硬盘的状态和可靠度 ?在 BIOS 下, 用户可以选择交错启动. ?TerabyteGuard ? for data protection and reliability ?坏扇区修复和重测以减少掉盘 ?MAID (Massive Array of Idle Disks), 在磁盘阵列中有空闲硬盘时,可让其处于休眠状态 ?硬盘 LED 指示灯 (活动灯和失败灯)

网卡绑定教程

intel、博康、Marvell、NF网卡的动态负载均衡设置 部分内容由网上摘抄修改 Marvell网卡绑定教程 控制台及驱动下载:https://www.doczj.com/doc/563577275.html,/product.aspx?P_ID=4zanuPTONhbnijk4 https://www.doczj.com/doc/563577275.html,/pub/ASUS/mb/socket775/P5BV-C/DRIVER/CPA_Win32_56423.zip 控制台和驱动的安装就不说了,一直下一步就可以了! 现在打开控制台软件:

单击“add team”按钮,弹出下面窗口: 注:"teaming mode"选择"static"

OK分组"BOOT"创建完毕: 最后将网卡添加进刚刚建立的BOOT分组即可:

4网卡汇聚最终图:

NF网卡绑定教程 https://www.doczj.com/doc/563577275.html,/Windows/nForce/9.28/9.28_nforce_winserv2003_32bit_international_whql.exe 下载解压,网卡驱动在Ethernet目录,网卡绑定软件在\Ethernet\NAM目录。 安装好之后,运行开始菜单的NVIDIA Corporation\NVIDIA Control Panel\networking项 显示如下界面,单击“Adjust teaming configuration”项

可以选择“use default teaming configuration”自动按默认设置组。 也可以选择“use custom teaming configuration”,弹出引导设置窗口。 选择自动负载均衡及容错“Load Balance and Failover”模式,点击下一步

Smart array 阵列卡介绍

这里介绍一下HP Smart Array 阵列卡。本来想在本地把所有需要总结的内容都总结下来后再发表,但是发现这边论坛大家顶的时间都比较慢,干脆写到那里就发到哪里,还能时时更新自己的帖子,算是占一个小便宜吧。参考了很多的资料,不过支持自己原创。下面就开始了: 自从HP并购了Compaq之后,就基本上结束了自己本身的Netserver系列的PC 服务器,主要保留了Compaq的Proliant 系列PC服务器。相应的,NetRaid阵列卡也基本上不再继续开发,进而转入Compaq的Smart Array 系列的阵列卡。从2001年的Smart Array 221阵列卡到现在已经经历了差不多8年的时间了。那么这里简单介绍一下HP Smart Array 系列的阵列卡。当然,主要介绍现在主流的阵列卡,包括SCSI阵列卡和SAS阵列卡。这些阵列卡主要应用在HP Proliant 系列的ML/DL/BL系列服务器上。 HP Smart Array系列的阵列卡针对不同的企业用户,提供了从入门级到企业级的不同需求的阵列卡。 ---拥有包括Ultra 2/3/320以及最新的SAS接口; ----单通道、双通道、四通道等不同的通道数量,使得企业在针对自己不同的应用得时候,针对成本、性能有了更多的选择和搭配的方式,四通道的阵列卡也能够满足企业需要更多硬盘容量的要求; ----外置的接口能够连接JBOD设备组成DAS结构,为企业提供更高的存储容量; ----预报警机制能够为服务器带来更方便的维护方式和提高数据的安全性; ----在线的热备盘为数据提供出色的保障;自动的重建功能使得企业维护人员能够在没有专业背景的情况下维护服务器成为可能; ----可选的带电池缓存技术能够更大幅度的提高数据的读写性能,并在突然的断电情况下保证数据的安全; ----多种阵列级别的支持为用户提供更多的选择;阵列迁移、阵列扩容也为企业硬件升级带来更高的灵活性; ----支持包括S.M.A.R.T/Drive parameter tracking / Dynamic Sector Repairing /Environment tracking for external storage system monitor等多种磁盘保护能力 -----使用图形化的配置界面、图形化的监控方式都位用户带来更加方便的安装以及维护方式;更能够支持win/linux/unix等多种操作系统 这里列举了部分的特征,下面逐一列举现在主流的阵列卡,太老的讨论也没有太大的意义。主要

SUSE-11图形界面操作双网卡绑定

SUSE 11图形界面操作双网卡绑定1.输入yast2登入图形界面,选择Network Settings点击进去 2.选择Overview中Add,进去选择Bond,并进行网卡命名后进行下一步

3.在静态地址中输入你所需要指定的IP,选择Bond Slaves

4.将两块网卡选择为绑定网卡,并选择参数。(下面会将每个参数作解释,根据实际需求选择)

balance-rr (mode=0) 轮转(Round-robin)策略:从头到尾顺序的在每一个slave接口上面发送数据包。本模式提供负载均衡和容错的能力。 active-backup(mode=1) 活动-备份(主备)策略:在绑定中,只有一个slave被激活。当且仅当活动的slave接口失败时才会激活其他slave。为了避免交换机发生混乱此时绑定的MAC地址只有一个外部端口上可见。在bongding的2.6.2及其以后的版本中,主备模式下发生一次故障迁移时,bonding将在新激活的slave上会送一个或者多个gratuitous ARP.bonding的主salve接口上以及配置在接口上的所有VLAN接口都会发送gratuitous ARP,只要这些接口上配置了至少一个IP地址。VLAN接口上发送的的gratuitous ARP将会附上适当的VLAN id。本模式提供容错能力,primary option,documented below会影响本模式的行为。 balance-xor(mode=2) XOR策略:基于所选择的传送hash策略。 本模式提供负载均衡和容错的能力。 broadcast(mode=3) 广播策略:在所有的slave接口上传送所有的报文。本模式提供容错能力。 802.3ad(mode=4) IEEE 802.3ad 动态链路聚合。创建共享相同的速率和双工模式的聚合组。能根据802.3ad 规范利用所有的slave来建立聚合链路。Salve的出站选择取决于传输的hash策略,默认策略是简单的XOR策略,而hash策略则可以通xmit_hash_policy选项加以改变。需要注意的是:不是所有的传输策略都与802.3ad兼容,尤其是802.3ad标准的43.2.4章节中关于packet mis-ordering要求的地方。不同个体的实现往往出现很大的不兼容。 先决条件: 1. 每个slave的基本驱动支持Ehtool获取速率和双工状态。 2.交换机支持IEEE 802.3ad动态链路聚合。大多数的交换机都需要使用某种配置方式来启用802.3ad模式。

AIX网卡绑定详细图解

1.1配置网卡绑定、IP地址 1.1.1网卡绑定配置 双网卡绑定主、备网卡工作模式etherchannel设置方法: 说明:本系统有4块物理网卡,分别为ent0、ent1、ent2、ent3,绑定ent0与ent1两块网卡,设置ent0为主网卡、ent1为备份网卡,注意两块网卡不能是一对双口卡。 1、增加EtherChannel, #smit etherchannel 2、选择网卡ent0

3、选择备份网卡Backup Adapter “ent1”按F4选着 确认后系统提示生成ent4虚拟网卡

配置IP地址时选择ent4对应的逻辑网卡en4进行配置。 1.1.2IP地址配置 配置ip地址不要使用smit mktcpip,因为使用mktcpip每配置一个IP地址时,都会更改/etc/hosts表增加一条主机名的映射关系。建议使用smit chinet配置ip地址,然后手工修改hosts表。 smit chinet

1.2配置网络路由 1.2.1配置default gateway smit mkroute,如配置缺省网关时指定DESTINATION Address 为0,并输入缺 省网关地址,其它项不填写。

1.2.2配置静态路由 配置静态路由时也使用smit菜单进行配置,以保证系统重新启动后,路由不会丢失。 举例配置带外管理到11.159.0.0网段,走11.159.20.1,子网掩码为255.255.0.0 smit route

1.2.3检查路由配置 1、检查当前路由表 #netstat –rn 2、检查ODM库中的路由表信息 #lsattr –El inet0 1.3设置系统时区及时间 时区设置为Asia/Shanghai smit system→Change / Show Date and Time→Change Time Zone Using System Defined Values

HBA卡设置RAID

1. 从自检信息中可以判断出,机器加的阵列卡为 SmartArray 642 阵列卡一块。 2. 上面提示信息说明,进入阵列卡的配置程序需要按 F8 进入阵列卡的配置程序。可以看到机器阵列卡的配置程序有4个初始选项: ?Create Logical Drive 创建阵列 ?View Logical Driver 查看阵列 ?Delete Logical Driver 删除阵列 ?Select as Boot Controller 将阵列卡设置为机器的第一个引导设备 注意:最后一个选项,将阵列卡设置为机器的第一个引导设备。这样设置后,重新启动机器,就会没有该选项。

3. 选择"Select as Boot Controller",出现红色的警告信息。选择此选项,服务器的第一个引导设备是阵列卡(SmartArray 642),按"F8"进行确认。 4. 按完"F8",确认之后,提示,确认改变,必须重新引导服务器,改变才可以生效。

5. 按"ESC"之后,返回到主界面,现在看到三个选项了。 6. 进入"Create Logical Drive"的界面,可以看到4部分的信息

Available Physical Drives 列出来连接在此阵列卡上的硬盘。图示的硬盘在SCSI PORT 2 (SCSI B) ID Spare 把所选择的硬盘作为热备的硬盘 7. 按回车进行确认,提示已经创建一个RAID 0的阵列,逻辑盘的大小为33.9GB,按 F8 进行保存即可。

8. 按"F8"进行保存。 9. 提示配置已经保存,按回车。

10. 进入"View Logical Drive" 界面,可以看到刚才配置的阵列,状态是"OK",RAID 的级别是 RAID 0 ,大小为 33.9 GB。 11. 按回车,查看详细信息。

ovirt上主机的网卡绑定

1.BOND模式概述 1.如下bond模式支持虚拟机网络(使用网桥)和非虚拟机网络(无网桥) ●Bond1(主备策略):只有一个设备处于活动状态,当一个宕掉另一个马上由备份转 换为主设备,不需要交换机做配置。 ●Bond2(平衡策略):基于指定的传输HASH策略传输数据包。此模式提供负载平衡 和容错能力,需要交换机配置链路聚合。 ●Bond4(IEEE802.3ad 动态链接聚合):创建一个聚合组,它们共享同样的速率和双 工设定。根据802.3ad规范将多个slave工作在同一个激活的聚合体下。需要交换机配置动态链路聚合。 ●Bond5(适配器传输负载均衡): 在每个slave上根据当前的负载(根据速度计算) 分配外出流量。如果正在接受数据的slave出故障了,另一个slave接管失败的 slave的MAC地址。不需要交换机做配置。 2.如下bond模式只支持非虚拟机网络(无网桥) ●Bond0(平衡抡循环策略):传输数据包顺序是依次传输(即:第1个包走eth0, 下一个包就走eth1….一直循环下去,直到最后一个传输完毕),此模式提供负载平衡和容错能力 ●Bond3(广播策略):在每个slave接口上传输每个数据包,此模式提供了容错能 力 ●Bond6(适配器适应性负载均衡):该模式包含了balance-tlb模式,同时加上针 对IPV4流量的接收负载均衡(receiveload balance, rlb),而且不需要任何 switch(交换机)的支持

2.BOND配置 2.1Bond0配置 1.在设置主机网络中绑定两个网卡并配置bond模式为自定义,自定义模式为 “mode=0 miimon=100” 2.把逻辑网络附加到bond,并配置IP地址

HBA卡和RAID卡介绍

两者的用途和接口都不同。RAID卡是插在主板扩展槽上的,卡上一般有SCSI 接口或SATA或SAS接口,直接接硬盘或盘箱。用途是建立磁盘阵列的工具,用RAID卡上的固件和控制芯片把硬盘组成各种级别的RAID,完成硬盘RAID 组和主板总线的数据交换。RAID卡既可以插在服务器上连接本地硬盘或外置磁盘阵列柜做RAID,也可以插在客户机上(工作站或PC)单独使用。 HBA卡也是插在主板扩展槽上的,现在主要是指光纤FC-HBA卡或ISCSI HBA 卡。卡上只有光纤接口或RJ45接口。FC-HBA卡使用SCSI指令用光纤传输,ISCSI HBA卡使用IP协议,用RJ45网线传输。用途是通过光纤交换机或ISCSI 交换机连接客户机和服务器(应该算网卡的一种),也用于服务器连接光纤接口的磁盘阵列柜,但只是数据传输,没有RAID功能。RAID功能由磁盘阵列柜内部的控制器完成。 RAID是做磁盘阵列,HBA是连接磁盘柜和服务器的光纤卡 只从HBA的英文解释HOST BUS ADAPTER(主机总线适配器)就能看出来,他肯定是给主机用的,一般HBA就是给主机插上后,给主机扩展出更多的接口,来连接外部的设备。大多数讲到HBA卡都是只光纤的HBA卡,给主机提供光纤接口的。也有ISCSI的HBA卡,链接ISCSI设备的,从这种功能上说,我们也可以把独立网卡称为HBA卡,通过独立网卡扩展出网口来连接外部网络设备或主机。不过习惯上大部分HBA只是称光纤卡或者iscsi卡。 而RAID卡只是提供RAID功能的卡,一般也是插在服务器内部的,这又分两种RAID卡。对服务器内部磁盘管理的卡和对外部磁盘柜进行管理的卡。对内部的,就是服务器本身磁盘都连接在这块卡上,然后卡插在主机主板接口上。我们可以通过开机时候,按下快捷键进入卡内的配置界面来创建RAID卷,从而让操作系统识别到具有RAID功能一块虚拟的磁盘。对外部的,就是插在主板PCIE接口后,给主板扩充出接口来连接外部磁盘柜。从这看,这块外部链接卡也相当于HBA卡了,但是它本身具有RAID功能。通过进入这块卡的配置界面来管理服务器外部的磁盘柜。但这块卡也是插在服务器内的。注意:而在磁盘阵列柜(这里我称为磁盘阵列柜,我个人不叫他磁盘柜,也是为也让楼主明白,除了很低端的磁盘柜子不具有RAID管理功能,需要服务器内插上连接外部的RAID卡来管理,大部分磁盘阵列柜,都具有RAID功能,这才对得起“阵列”二字)内的提供raid功能的一般不称作RAID卡,我们叫做控制器,用来控制和管理这个阵列柜。这样的阵列柜可以直接通过自己的接口,一般是SAS口,或者高端点的ISCSI 口,也就是网口,以及光纤口,来连接服务器。这样服务器也要配上SAS,网口,光纤口的HBA卡来连接磁盘柜。(网口一般服务器都有,很少需要再插HBA 卡来扩充接口了)这样来看,又出现了Sas口的HBA卡,这块提供SAS口的HBA卡如果自己具有RAID功能,那也算是链接外部设备的RAID卡了。

虚拟化环境网卡绑定模式

虚拟化环境网卡绑定模式 作者:郭国华,新炬网络技术专家 随着云计算的发展,虚拟化技术已普遍应用于各类型企业,同时虚拟化为服务器带来密集的网络吞吐压力已成为影响云计算发展的最大性能瓶颈之一,为了最大化提升主机网络性能,对不同的业务场景主机需配置合理的网卡BOND模式,本项目将在不对交换机做特别设置的KVM虚拟化环境下(交换机采用Trunk模式)对七种双网卡BOND模式进行测试,用数据说话浅析虚拟化环境网卡绑定模式应该如何选择。 一、测试环境方法介绍 (一)网络拓扑图 (二)测试环境及工具: 本项目使用2台服务器(各跑一台虚拟机)、3台交换机KVM虚拟化环境进行测试,测试软硬件环境及工具如下: 1、服务器:2台IBM X3950M2服务器(带2张千兆网卡),2台虚拟机; 2、交换机:1台Cisco Nexus 5548P,2台Cisco Nexus 2248TP,Trunk模式; 3、操作系统:linux redhat6.2,KVM虚拟化、网卡桥接模式(见上图);

4、测试工具:netperf、ping、scp、sar、iostat。 (三)具体测试项 拟定BOND模式的测试项目如下: 1、丢包率测试:通过ping命令测试主机间网络丢包情况; 2、网卡切换效率测试:通过down、up网卡测试切换过程ping与文件传输的中断 情况; 3、网络TCP、UDP吞吐量:通过netperf命令分别测试TCP与UDP的吞吐量; 4、网络速率测试:通过网络传输文件测试网络接收、发送速率。 二、七种网卡绑定模式介绍 网卡绑定7种模式官方说明如下,网上一堆资料在此不再赘述: mode=0 (balance-rr) Round-robin policy: Transmit packets in sequential order from the first available slave through the last. This mode provides load balancing and fault tolerance. mode=1 (active-backup) Active-backup policy: Only one slave in the bond is active. A different slave becomes active if, and only if, the active slave fails. The bond's MAC address is externally visible on only one port (network adapter) to avoid confusing the switch. This mode provides fault tolerance. The primary option affects the behavior of this mode. mode=2 (balance-xor) XOR policy: Transmit based on [(source MAC address XOR'd with destination MAC address) modulo slave count]. This selects the same slave for each destination MAC address. This mode provides load balancing and fault tolerance. mode=3 (broadcast) Broadcast policy: transmits everything on all slave interfaces. This mode provides fault tolerance. mode=4 (802.3ad) IEEE 802.3ad Dynamic link aggregation. Creates aggregation groups that share the same speed and duplex settings. Utilizes all slaves in the active aggregator according to the 802.3ad specification. Pre-requisites: 1. Ethtool support in the base drivers for retrieving the speed and duplex of each slave. 2. A switch that supports IEEE 802.3ad Dynamic link aggregation. Most switches will require some type of configuration to enable 802.3ad mode.

IBM ServeRAID阵列卡介绍与分类

产品知识中心:ServeRAID阵列卡 责任编辑:洪钊峰作者:雪原2009-09-30 【内容导航】 ?第1页:IBM ServeRAID阵列卡介绍与分类 ?第2页:IBM在线课程:IBM ServeRaid 阵列卡介绍与配置 ?第3页:IBM ServeRAID 专题:驱动程序、配置指南 文本Tag:RAID IBM RAID卡 【IT168 产品知识中心】IBM的ServeRAID阵列卡型号非常之多,有32款,很多人都被搞得头晕眼花,不知道自己的机器到底适用哪一种型号的阵列卡。不用着急,IBM在其官方网站上已经对阵列卡的机型配比情部的进行了归类整理,不仅介绍了现有32款阵列卡的外观形式和基本特性,还对这32款阵列卡的详细特性进行了横向比较,并对IBM Netfinity servers、IBM eServer xSeries servers、IBM eServer systems、IBM System x servers、IBM iDataPlex servers、IBM BladeCenter servers等x86服务器产品分别支持哪一款阵列卡进行了列表式介绍,非常清晰。 链接: https://www.doczj.com/doc/563577275.html,/Redbooks.nsf/RedbookAbstracts/tips005 4.html?Open#feature1 ServeRAID ServeRAID II ServeRAID-3L and ServeRAID-3L II ServeRAID-3H ServeRAID-3HB ServeRAID-4L ServeRAID-4Lx ServeRAID-4M ServeRAID-4Mx ServeRAID-4H ServeRAID-5i

dell服务器双网卡绑定与端口聚合

端口聚合( Port Trunking ) 可将2至8个10/100Base-TX 端口聚合成一条干路,在全双工工作模式下达到的带宽。端口聚合技术能充分利用现有设备实现高速数据传递,也可以通过千兆端口聚合技术实现千兆位链路的聚合,最多可以聚合4Gbps的链路带宽。 Broadcom Gigabit Ethernet Adapter Teaming 任何可用的千兆BRODCO网卡都可以配置为TEAM勺一部分.TEAMING是一种将多块千兆BRODCC网卡绑定作为一个虚拟网卡. 好处就是负载均衡. 通过选择每一个可用的千兆BRODCC网卡并添加它们到负载均衡成员栏来创建TEAM对于用户和应用程序 只看到一个虚的网卡. 负载均衡组中的成员共享绑定的数据流. 在一个基本的成员区域中,任一个千兆BRODCOM卡都可以被指定为主成员负责数据流的控制,而指定为备用成员的网卡只有在所有的主 成员网卡都失败时,才开始接管数据流.一旦任一个主成员网卡恢复,数据马上由该主成员控制. 创建teaming 包含下列几个步骤: * 打开BASP属性窗口 * 创建teams * 添加网卡到teams * 分配一个IP 地址给teamss * 重启机器 BASP是适用于windows2003,windows2000,windowsNT,Redhat Liunx,NetWare 的一个broadcom 的中介型驱动程 序, 需要先安装对应的broadcom 网卡驱动程序.

目前它提供了负载均衡;错误冗余;VLAN高级功能,都通过创建teaming来实现. 注意:一个team可以包含1到8个网卡,每个网卡都可以指定为主成员或备用成员. BASP的负载均衡;错误冗余功能支持与第三方厂商网卡在同一个team中协同工作. BASP FOR Windows 2000 & 20003 & NT提供以下选项: - 支持下列网卡作为故障应急(failover) Alteon AceNic,3COM 10/100 Server adapters;intel 10/1000 server adapters;intel 1000baseSX server adapter; intel 82559 板载网卡 - 智能负载均衡, 交换机不需设置. - 普通链路聚合(GEC/FEC,Open Trunk), 需要在交换机上启用trunking - 链路聚合( 静态配置), 需要交换机支持 - 通过,每个网卡最多支持64个VLANS只支持braodcom或Alteon网卡 BASP FOR RH Linux 提供以下几种team 的模式: - 智能负载均衡 普通链路聚合(GEC/FEC,Open Trunk), 需要在交换机上启用trunking 链路聚合( 静态配置), 需要交换机支持 - VLAN Pachket tagging Smart Load Balancing (SLB) ?

HP windows2012的双网卡绑定

Windows2012网卡绑定 在服务器管理器中,定位到本地服务器,可以看到网卡的状态,其中NIC组合显示为已禁用。点击它。 在NIC组合的适配器和借口窗口中,选择需要绑定的网卡,点击任务,添加到新组。

弹出新建组窗口,勾选需要绑定的网卡,并为新组起名team1。

其它属性——成组模式: a、静态成组(IEEE 802.3ad draft v1):此模式配置交换机和主机之间需要哪种链接组 合形式,由于这是一个静态配置的解决方案有任何附加协议,所以就不会因为交换机或主机因为电缆的插入错误或其它错误而导致组合的形成.此种模式中,网卡可以工作于不同的速度,就是说可以用不通速度的网卡建立组合, 但同样要求交换机完全支持IEEE 802.3ad 标准,一般情况下,服务器级别的交换机通常支持此模式. b、交换机独立:这是配置时的默认值,此模式不要求交换机参与组合配置,由于独 立模式下的交换机不知道网卡是主机上组合一部分,网卡可以连接到不同的交换机. c、LACP动态组合(IEEE 802.1ax, LACP):LACP动态组合是到同一台交换机的链路聚合, 只不过不是静态配置的,而是动态构成(也就是自动协商)的.它是通过一种智能的链路协商协议LACP (Link Aggregation Control Protocol)来实现的.LACP原本用于交换机和交换机之间的链路聚合,启用了LACP协议的2台交换机会相互发送LACP的协商报文,当发现2者之间有多条可用的链路的时候,自动将这些链路组合成一条带宽更大的逻辑链路,从而利用负载均衡来实现加宽交换机间链路带宽的目的.

IBM常见的RAID芯片和RAID卡介绍

IBM常见的RAID芯片和RAID卡介绍 首先,我先对RAID的概念进行一下简要的介绍一下: RAID独立冗余磁盘阵列最初叫做廉价冗余磁盘阵列,全称是Redundant Array of Inexpensive Disks,RAID是通过磁盘阵列与数据条块化方法相结合,以提高数据可用率的一种结构。IBM早于1970年就开始研究此项技术。常见RAID级别分为RAID 0, RAID 1, RAID 5,RAID 10,RAID 5E, RAID 5E0,RAID1E0等,每一个RAID级别都有自己的强项和弱项。 RAID 0:RAID 0连续以位或字节为单位分割数据,并行读/写于多个磁盘上,因此具有很高的数据传输率,但它没有数据冗余,因此并不能算是真正的RAID结构。RAID 0只是单纯地提高性能,并没有为数据的可靠性提供保证,而且其中的一个磁盘失效将影响到所有数据。因此,RAID 0不能应用于数据安全性要求高的场合。 RAID 1:它是通过磁盘数据镜像实现数据冗余,在成对的独立磁盘上产生互为备份的数据。当原始数据繁忙时,可直接从镜像拷贝中读取数据,因此RAID 1可以提高读取性能。RAID 1是磁盘阵列中单位成本最高的,但提供了很高的数据安全性和可用性。当一个磁盘失效时,系统可以自动切换到镜像磁盘上读写,而不需要重组失效的数据。 RAID 0+1: 也被称为RAID 10标准,实际是将RAID 0和RAID 1标准结合的产物,在连续地以位或字节为单位分割数据并且并行读/写多个磁盘的同时,为每一块磁盘作磁盘镜像进行冗余。它的优点是同时拥有RAID 0的超凡速度和RAID 1的数据高可靠性,但是CPU 占用率同样也更高,而且磁盘的利用率比较低。 RAID 5:RAID 5不单独指定的奇偶盘,而是在所有磁盘上交叉地存取数据及奇偶校验信息。在RAID 5上,读/写指针可同时对阵列设备进行操作,提供了更高的数据流量。RAID 5更适合于小数据块和随机读写的数据。RAID 3与RAID 5相比,最主要的区别在于RAID 3每进行一次数据传输就需涉及到所有的阵列盘;而对于RAID 5来说,大部分数据传输只对一块磁盘操作,并可进行并行操作。在RAID 5中有“写损失”,即每一次写操作将产生四个实际的读/写操作,其中两次读旧的数据及奇偶信息,两次写新的数据及奇偶信息。 基于不同的架构,RAID 又可以分为: ●软件RAID (软件RAID) ●硬件RAID (硬件RAID) ●外置RAID (External RAID)

相关主题
文本预览
相关文档 最新文档