当前位置:文档之家› pNFS (并行NFS) 详解

pNFS (并行NFS) 详解

pNFS (并行NFS) 详解
pNFS (并行NFS) 详解

Parallel NFS (pNFS) is a part of the NFS v4.1 standard that allows compute clients to access storage devices directly and in parallel. The pNFS architecture eliminates the scalability and performance issues associated with NFS servers deployed today. This is achieved by the separation of data and metadata, and moving the metadata server out of the data path. "Parallel storage based on pNFS is the next evolution beyond clustered NFS storage and the best way for the industry to solve storage and I/O performance bottlenecks. Panasas was the first to identify the need for a production grade, standard parallel file system and has unprecedented experience in deploying commercial parallel storage solutions."– Robin Harris, Data Mobility Group

1. pNFS简介

pNFS是并行网络文件系统,为NFSv4.1的一部分,与NFSv3不同的是,它将元数据与数据进行分离,允许客户端直接与数据服务器进行交互。这种机制解决了传统NFS的性能瓶颈问题,从而使得系统获得高性能和高扩展性的特性。

最近几年,高性能数据中心已经快速向并行技术转移,比如集群计算和多核心处理器,这些加速了并行应用的开发和广泛使用。

虽然这种并行使用的增加解决了大多数的计算瓶颈,它却把性能瓶颈转移到了存储I/O系统。随着主流计算转向并行,存储子系统也需要转移到并行技术。为了成为通用的方式,需要一个标准的方法,能够从多个存储供应商选择存储设备并且从任何客户端都能自由的存取并行存储器。

为了转向高一等级的性能水平,当存储系统依附到一个经济有效的标准时必须对并行做最优化。NFS,当前流行的网络文件系统标准并不支持并行I/O,主要存储供应商提供的现有并行产品也不能彼此兼容。在业界提供出一个并行存储的标准之前,用户选用设备都将继续受到妨碍,他们勉强的部署一套存在许多不兼容的并行存储系统。

1.1 当今NFS遇到的挑战

为了了解pNFS是如何工作的,首先必须了解在一个典型的NFS结构中当客户端试图存取一个文件时是如何进行的。图1展示了一个传统的NFS结构。你可以看到NFS服务器位于客户端计算机和实际的物理存储装置之间。当客户端想要存取存储器上的文件时,它必须创建一个到NFS 服务器的连接(也就是创建一个安装点)。当客户端试图存取存文件时NFS服务器起仲裁者的作用,管理所有需要的数据处理,把数据传送到提出请求的客户端。

由较少的客户端访问相对较小的数据集时这种结构工作的很好,通过直接连接的存储器能够收到显著的效益(就象你PC上的磁盘);也就是数据能够由多个客户端共享,能够由任何有NFS 能力的客户端访问。可是如果大量的客户端需要访问数据或太大的数据集时,NFS服务器很快就变成了一个瓶颈,抑制了系统性能。pNFS从根本上消除了这个瓶颈,允许从许多许多客户端以难以置信的速度快速存取非常大的数据集。

1.2 pNFS消除了瓶颈

这里我们可以看到pNFS如何修改了NFS结构,消除了我们刚才提到的性能瓶颈。实质上的变化是NFS服务器移动到了带外,变成了一个元数据服务器。意思就是它管理着有关数据布局的数据。那么当一个客户端需要存取数据时它需要做什么呢?

它首先要做的是与NFS服务器联系就象先前例子中所做的一样。可是这次服务器提供给客户端一个到哪里去寻找所要数据的布局图和读/修改/写这些数据的授权书。一旦客户端有了这两部分,它存取数据时就直接与存储设备联系。使用传统的NFS时数据的每个比特都要通过NFS服务器,使用pNFS时NFS服务器从主数据通路中移出来了,允许客户端自由地和快速地存取数据。当然所有的NFS的优点都继续保留,但现在消除了瓶颈,数据能够以并行方式以非常快的吞吐率被访问,系统容量能够容易的扩展而不影响总性能。

NFSv41和pNFS主要由RFC5661(NFSv4.1)、RFC5662(NFSv4.1 XDR)、RFC5663(pNFS Block/Volume Layout)、RFC5664(Object-Based pNFS Operations)描述,这些标准已经于2010.01正式发布。目前,pNFS商业和开源产品都比较少,而且实现方面还不成熟。Linux kernel 从2.6.30版本加入了pNFS支持,目前最新版本为2.6.38,pNFS仍处于Expermental,包括Server 和Client。

NFS V4.1包括一个扩展Parallel NFS(pNFS),它将普通NFS 的优势和并行输入输出(I/O)的高传输率结合起来。使用pNFS 时,客户机也像以前一样可以从服务器共享文件系统,但数据不经过NFS 服务器。相反,客户机系统将与数据存储系统直接连接,为大型数据传输提供许多并行的高速数据路径。在简短的初始化和握手(handshaking)过程之后,pNFS 服务器开始退出―舞台‖,不再阻碍传输速率。

图2 显示一个pNFS 配置。顶部是计算集群的节点,比如大量便宜的、基于Linux的刀片服务器群。左边是NFSv4.1 服务器。(为了方便讨论,我们称之为pNFS 服务器)。底部是一个大型的并行文件系统。

图2. pNFS 的概念组织结构

像NFS 一样,pNFS 服务器也导出文件系统,并且保留和维护数据仓库中描述每个文件的标准元数据。pNFS 客户机和NFS 一样—在这里是集群中的一个节点—挂载服务器导出的文件系统。类似于NFS,每个节点都将文件系统看作本地的物理附加文件系统。元数据的更改通过网络传回给pNFS 服务器。然而,与NFS 不同的是,pNFS 在Read 或Write 数据时是在节点和存储系统之间直接操作的,如图2 的底部所示。从数据事务中移除pNFS 服务器为pNFS 提供了明显的性能优势。

因此,pNFS 保留了NFS 的所有优点,并且改善了性能和可伸缩性。扩展存储系统的容量几乎不会影响客户机配置,同时还可以增加客户机的数量以提高计算能力。您只需同步pNFS 目录和存储系统。

2. pNFS 的具体细节

如图3 所示,pNFS 是由3 个协议构成的。

图3. pNFS 的 3 个协议

pNFS 协议在pNFS 服务器和客户机节点之间传输文件元数据(正式名称是布局,layout)。可以将布局想象成地图,它描述如何在数据仓库之间分配文件。另外,布局还包含许可和其他文件属性。布局捕捉到元数据并在pNFS 服务器中持久化这些数据之后,存储系统仅需执行I/O。

存储访问协议指定客户机从数据仓库访问数据的方式。可以猜到,每个存储访问协议都定义自己的布局形式,因为访问协议和数据组织必须保持一致。

控制协议同步元数据服务器和数据服务器之间的状态。同步是对客户机隐藏的,比如重新组织介质上的文件。此外,NFSv4.1 并没有规定控制协议;因此它有多种形式,这在性能、成本和特性方面的竞争为供应商提供了灵活性。

有了这些协议之后,您就可以实践以下客户机访问流程:

1客户机为当前的文件请求一个布局。

2客户机通过打开元数据服务器上的文件获得访问权。

3客户机获得授权和布局之后,就可以直接从数据服务器访问信息。根据存储类型所需的存储访问协议,访问继续进行。(后面还对此进行论述)。

4如果客户机更改了这个文件,则会相应地更改布局的客户机实例,并且将所有更改提交回到元数据服务器。

5当客户机不再需要这个文件时,它将提交剩余的更改,并将布局副本返回给元数据服务器,

然后关闭文件。

尤其需要注意的是,Read 操作是由一系列协议操作组成的:

6客户机向pNFS 服务器发送一个LOOKUP+OPEN 请求。服务器会返回一个文件句柄和状

态信息。

7客户机通过LAYOUTGET 命令请求从服务器获取一个布局。服务器将返回所需的文件布局。

8客户机向存储设备发出一个READ 请求,该请求同时初始化多个Read 操作。

9当客户机完成读操作时,它以LAYOUTRETURN 表示操作结束。

10如果与客户机共享的布局因为分离活动而过时,服务器将发出CB_LAYOUTRECALL,表明

该布局无效,必须清除和/或重新获取。

Write 操作类似于Read 操作,不同的地方是客户机必须在LAYOUTRETURN 将文件更改―发布‖到pNFS 服务器之前发出LAYOUTCOMMIT。

布局可以缓存到每个客户机,这进一步提升了性能。如果一个客户机不再使用时,它会自动放弃从服务器获取布局。服务器还能限制Write 布局的字节范围,以避免配额限制或减少分配开销等等。

为了避免缓存过期,元数据服务器将收回不准确的布局。收回发生之后,每个关联的客户机必须停止I/O,并且必须重新获取布局或从普通的NFS 访问文件。在服务器尝试管理文件(比如迁移或重新划分)之前必须执行回收过程。

3 三种协议访问存储

pNFS支持多种协议(Block[FC], Object[OSD], Files[NFS])直接访问数据,需要对客户端功能进行扩展以支持不同的layout(LAYOUT4_FILE, LAYOUT4_BLOCK_VOLUME, LAYOUT4_OSD2_OBJECTS)。:

文件存储通常是由传统的NFS 服务器实现的,比如由Network Appliance 生成的服务器。存储群是由一组NFS 服务器组成的,并且每个文件都跨越所有服务器或服务器的子集,

从而使客户机能够同时获取文件的各个部分。在这里,布局枚举持有文件片段的服务器、每个

服务器上文件片段的大小,以及每个片段的NFS 文件句柄。

块存储通常是使用由许多磁盘或RAID 阵列组成的存储区域网络(SAN)来实现的。许多供应商都提供SAN解决方案,包括IBM 和EMC。有了块存储之后,文件可以被划分为块

并分布到不同的驱动器中。块存储布局将文件块映射到物理存储块。存储访问协议就是SCSI

块命令集。

对象存储类似于文件存储,但有一点不同,这里使用的是对象ID 而不是文件句柄,并且文件分割功能更加复杂强大。发起pNFS 开发的Panasas公司(pNFS 基于该公司的

DirectFLOW 架构)是pNFS 对象实现的主要创造者。

不管布局的类型是什么,pNFS 都使用通用的模式来引用服务器。引用服务器时使用的是唯一的ID,而不是主机名或卷名。这个ID 被映射到特定于访问协议的服务器引用。

对于这些存储技术,哪个最好呢?答案是―依情况而定‖。应该采用哪种存储技术由预算、速度、伸缩性、简单性等因素共同决定。

参考

https://www.doczj.com/doc/7e15467419.html,/_new/Printpage.asp?ID=1362

NFS v4.1 标准。

pNFS Web 站点

Panasas及其开源pNFS 客户机软件

https://www.doczj.com/doc/7e15467419.html,/sites/default/files/SNIA_An_Overview_of_NFSv4-3_0.pdf

https://www.doczj.com/doc/7e15467419.html,/a/jishu/pNFS.html

https://www.doczj.com/doc/7e15467419.html,/developerworks/cn/linux/l-pnfs/index.html

https://www.doczj.com/doc/7e15467419.html,/liuben/article/details/6554866

https://www.doczj.com/doc/7e15467419.html,/p-280311248.html#documentinfo

NFS使用详解之二.服务状态查询及设置

NFS使用详解之二.服务状态查询及设置 2013-11-06 16:38:28 分类:大数据 操作系统版本: [root@localhost /]# cat /etc/redhat-release 1、检查portmap服务运行状态(因为NFS及其辅助程序都是基于RPC的,所以我们要确保系统中首先运行portmap服务) [root@localhost /]# id uid=0(root) gid=0(root) groups=0(root),1(bin),2(daemon),3(sys),4(adm),6(disk),10(wheel) context=root:system_r:unconfined_t [root@localhost /]# service portmap status portmap is stopped 结果显示portmap服务是停止的,可以通过以下命令启动该服务: [root@localhost /]# service portmap start Starting portmap: [ OK ] [root@localhost /]# service portmap status portmap (pid 11085) is running... 结果显示portmap服务已处于“running”状态。

2、检查nfs服务运行状态 [root@localhost /]# service nfs status Shutting down NFS mountd: rpc.mountd is stopped nfsd is stopped rpc.rquotad is stopped 结果显示nfs服务是停止的,可以通过以下命令启动该服务: [root@localhost /]# service nfs start Starting NFS services: [ OK ] Starting NFS quotas: [ OK ] Starting NFS daemon: [ OK ] Starting NFS mountd: [ OK ] 此时来检查一下nfs服务运行状态,由下可知,nfs服务已启用。 [root@localhost /]# service nfs status Shutting down NFS mountd: rpc.mountd (pid 11155) is running... nfsd (pid 11151 11148 11147 11146 11145 11144 11143 11142) is running... rpc.rquotad (pid 11138) is running... 3、设置nfs服务在系统重启后自动运行 [root@localhost /]# chkconfig --list nfs nfs 0:off 1:off 2:off 3:off 4:off 5:off 6:off

NFS参数配置详细说明

NFS参数配置详细说明 1、NFS概述 NFS:Network file system,网络文件系统; 由sun公司1984年推出,用来在网络中的多台计算机间实现资源共享(包括象文件或cd-rom); 设计的目的是:实现在不同系统间交互使用,所以它的通信协议采用与主机和操作系统无关的技术; NFS Server可以看作是File Server,它可以让你的PC通过网络将远端得NFS SERVER共享出来的档案MOUNT到自己的系统中,在CLIENT看来使用NFS的远端文件就象是在使用本地文件一样; NFS协议从诞生到现在有多个版本:NFS V2(rfc1094),NFS V3(rfc1813)(最新的版本是V4(rfc3010); 如何查看nfs当前的版本: rpm -qi portmap rpm -qi nfs-utils NFS服务器的安装: 可以由多种安装方法: ----在安装linux系统时选择安装nfs服务对应的组件;(多数linux发行版本默认安装) ----安装nfs的rpm套件包(手动安装) rpm -ivh rpm包 需要5个RPM包。 setup-*:共享NFS目录在/etc/exports中定义(linux默认都安装) initscripts-*:包括引导过程中装载网络目录的基本脚本(linux默认都安装) nfs-utils-*:包括基本的NFS命令与监控程序 portmap-*:支持安全NFS RPC服务的连接 quota-*:网络上共享的目录配额,包括rpc.rquotad (这个包不是必须的) ----也可以去下载nfs的源代码包,进行编译安装; RPC(Remote Procedure call) NFS本身是没有提供信息传输的协议和功能的,但NFS却能让我们通过网络进行资料的分享,这是因为NFS使用了一些其它的传输协议。而这些传输协议用到这个RPC功能的。可以说NFS本身就是使用RPC的一个程序。或者说NFS也是一个RPC SERVER.所以只要用到NFS的地方都要启动RPC服务,不论是NFS SERVER或者NFS CLIENT。这样SERVER和CLIENT才能通过RPC来实现PROGRAM PORT的对应。可以这么理解RPC和NFS的关系:NFS是一个文件系统,而RPC是负责负责信息的传输。 nfs在系统中的后台守护进程: nfs nfs服务需要启动的其他进程: rpc.nfsd:接收从远程系统发来的NFS请求,并将这些请求转化为本地文件系统请求;rpc.mountd:执行被请求的文件系统的挂接和卸载操作; rpc.portmapper:将远程请求映射到正确的NFS守护程序; rpc.statd:在远程主机重启时,提供加锁服务; rpc.quotaed:提供硬盘容量的管理能力,磁盘限额; rpcinfo -p 可以查看所要的守护进程时候正常运行; ps -ef | grep nfsd

linux服务详解

Linux AS4下系统服务详解刚整理的 Linux, 详解, 系统, 服务 Linux AS4下系统服务详解 nfs 0:off 1:off 2:off 3:off 4:off 5:off 6:off nfs网络文件共享 NetworkManager 0:off 1:off 2:off 3:off 4:off 5:off 6:off 网络管理network 0:off 1:off 2:on 3:on 4:on 5:on 6:off 网络 gpm 0:off 1:off 2:on 3:off 4:on 5:on 6:off 鼠标mdmonitor 0:off 1:off 2:on 3:off 4:on 5:on 6:off 与RAID设备相关的守护程序 cups 0:off 1:off 2:on 3:off 4:on 5:on 6:off 公共UNIX打印支持,为Linux提供打印功能。是否需要启动如果不安装打印机,就不需要启动。 ypbind 0:off 1:off 2:off 3:off 4:off 5:off 6:off SUN的YP服务器名称服务器 haldaemon 0:off 1:off 2:off 3:off 4:on 5:on 6:off 硬件监控服务,监控硬件的改变,为你改变新的或更改过硬件,可以检测即插即用设备readahead 0:off 1:off 2:off 3:off 4:off 5:on 6:off 其作用是在启动系统期间,将启动系统所要用到的文件首先读取到内存中,然后在内存中进行执行,以加快系统的启动速度。而上面两个配置文件就保存着将要读取到内存的文件列表。 ipmi 0:off 1:off 2:off 3:off 4:off 5:off 6:off IPMI (Intelligent Platform Management Interface)即智能平台管理接口是使硬件管理具备“智能化”的新一代通用接口标准。用户可以利用IPMI 监视服务器的物理特征,如温度、电压、电扇工作状态、电源供应以及机箱入侵等。Ipmi 最大的优势在于它是独立于CPU BIOS 和OS 的,所以用户无论在开机还是关机的状态下,只要接通电源就可以实现对服务器的监控。Ipmi 是一种规范的标准,其中最重要的物理部件就是BMC(Baseboard Management Controller 如图1),一种嵌入式管理微控制器,它相当于整个平台管理的“大脑”,通过它ipmi 可以监控各个传感器的数据并记录各种事件的日志。 mdmpd 0:off 1:off 2:off 3:off 4:off 5:off 6:off 软RAID监控服务 smartd 0:off 1:off 2:on 3:on 4:on 5:on 6:off Self Monitor Analysis and Reporting Technology System,监控你的硬盘是否出现故障。ibmasm 0:off 1:off 2:off 3:off 4:off 5:off 6:off ibmasm 套件用來與IBM Advance System Management PCI Adapter(亦稱RSA I)進行通訊。auditd 0:off 1:off 2:off 3:off 4:off 5:off 6:off 审核守护进程atd 0:off 1:off 2:off 3:on 4:on 5:on 6:off 用于at和batch的服务atd类似cron,提供在指定的时间做指定的事的服务,就象计划任务iptables 0:off 1:off 2:on 3:on 4:on 5:on 6:off 防火墙snmptrapd 0:off 1:off 2:off 3:off 4:off 5:off 6:off SNMP的捕获服务syslog 0:off 1:off 2:on 3:on 4:on 5:on 6:off 系统日志服务pcmcia 0:off 1:off 2:on 3:off 4:on 5:on 6:off 安装pcmcia卡(一般用于笔记本电脑)

linux配置nfs步骤及心得

linux配置nfs步骤及心得 2014-05-28 22:50 25794人阅读评论(1) 收藏举报分类: 嵌入式linux(28) 版权声明:本文为博主原创文章,未经博主允许不得转载。 这节我们介绍NFS的相关概念,以及如何配置NFS和在客户端中查看NFS。 NFS的配置过程很简单。在服务器端中编辑/etc/exports文件,添加如下内容: /home/nfs-share 192.168.1.122 *(rw,sync) 第一项是要共享的目录,后者为共享的配置参数一般为: *(rw,sync,no_root_squash,no_all_squash,no_subtree_check) 然后开启NFS和portmap服务: /etc/init.d/nfs start //用service nfs start也可以 /etc/init.d/portmap start //用service portmap stasrt也可以 在centos6.5中portmap已经改为rpcbind 在客户端,用mount –t nfs 192.168.123:/home/nfs-share /home/remote_file挂载服务器端的共享目录到本地的/home/remote-file挂载点,然后我们就可以在客户端上应用到远程 主机上的/home/nfs-share目录了。想要系统在开机时自动挂载,修改/etc/fstab文件,把NFS服务器的共享目录添加进去就可以了,这个不用多说。 如何知道远程主机上的共享目录情况呢?使用showmount命令,这个命令需要root权限。它有三个选项(记住这三个选项代表的含义: showmount –a IP 显示指定NFS服务器的客户端以及服务器端在客户端的挂载点 showmount –d IP 显示指定NFS服务器在客户端的挂载点 showmount –e IP 显示指定NFS服务器上的共享目录列表(或者叫输出列表) 我们输入命令showmount –a 192.168.1.123: 图片客户端中出现的mount clntudp_create: RPC: Program not registered错误是怎么回事?噢,我刚才重启了一下服务器端,重启后NFS服务没有开启。 我们开启服务器端的NFS服务,再从客户端上查看一下NFS服务器的情况:

linux中如何挂载NFS文件

如何挂载NFS开发环境的方法步骤 ———mount命令及umount命令的用法详解(附图说明)Step1:设置好网络 主机IP:222.204.59.185 网关:192.168.50.1 子网掩码:255.255.255.0 开发板IP:222.204.59.250 网关:192.168.50.1 子网掩码:255.255.255.0 目的是使得两个处于同一个网段。 Step2:在主机的linux中设置共享目录 运行命令 #gedit /etc/exports 编辑nfs 服务的配置文件(注意:第一次打开时该文件是空的),添加以下内容: /root/share *(rw,sync,no_root_squash) 保存退出 其中: /root/share表示nfs 共享目录,它可以作为开发板的根文件系统通过nfs 挂接; *表示所有的客户机都可以挂接此目录 rw表示挂接此目录的客户机对该目录有读写的权力 no_root_squash表示允许挂接此目录的客户机享有该主机的root 身份 使用showmount –e命令可以查看你的挂载点在哪,不加参数-e显示的是网络地址。 在开发板上的/mnt下建立新的nfs文件(可以放在其他地方,名字除了nfs也可以去其他的名字) Step3:通过命令启动和停止nfs 服务 在命令行下运行: #/etc/init.d/nfs restart 这将启动nfs 服务,可以输入以下命令检验nfs 该服务是否启动。 Step4:在minicom中使用mount命令(也可以在超级终端中使用) 确定 进入minicom界面:

# mount -t nfs 222.204.59.185: /root/share /mnt/nfs 上图为minicom中显示的linux(也即开发板中的) 如果提示:mount:RPC:unable to receive; errno =No route to host 说明你主机linux中的防火墙没关闭在主机linux 中使用一下命令就可以解决:#service iptables stop。在次使用mount命令就ok了。 注意:此处222.204.59.185主机的ip地址,使用mount命令是在超级终端或minicom中使用,而不是在主机的linux系统中。在取消挂载命令时也是在超级终端或minicom中使用,具体用法是:#umount /mnt/ 如果没有出现错误信息, 您将可以浏览到/mnt 目录中的内容和/root/share是一致的。 取消挂载: 使用这个命令可以停止nfs 服务: #/etc/init.d/nfs stop 检查nfs服务器是否开启: #service nfs status 启对应的2个服务:#service portmap restart #service nfs restart 检查防火墙看是否屏蔽了nfs端口:#service iptables stop #service iptables status

NFS服务器的配置与应用

NFS服务器的配置与应用 NFS服务的配置与应用 1、什么是NFS 它是Network File system的缩写,即网络文件系统。 NFS是由SUN公司开发,并于1984年推出的一个RPC服务系统,它使我们能够达到文件的共享。一台NFS服务器如同一台文件服务器,只要将起文件系统共享出来,NFS客户端就可以将它挂载到本地系统中,从而可以像使用本地文件系统中的文件一样使用那些远程文件系统中的文件。 使用NFS既可以提高资源的使用率,又可以节省客户端本地硬盘的空间,同时也便于对资源进行集中管理 2、RPC 虽然NFS可以在网络中进行文件共享,但是NFS协议本身并没有提供数据传输的功能,它必须借助RPC(remote process call)远程过程调用协议实现数据的传输。RPC是一种通过网络从远程计算机程序上请求服务,而不需要了解底层网络技术的协议。可以将NFS服务器看成是一个RPC服务器,而将NFS客户端看成是一个RPC客户端。 3、3个系统守护进程 ①rpc.nfsd 基本的NFS守护进程,主要管理客户端是否能登入服务器 ②rpc.mountd RPC的安装守护进程,主要管理NFS的文件系统。当客户端通过rpc.nfsd 登录NFS服务器后,在使用NFS服务器所提供的文件前,还必须通过文件使用权限的验证,rpc.mountd会读取NFS的配置文件/etc/exports来对比客户端的权限 ③portmap Portmap进行端口映射。当客户端尝试连接并使用RPC服务器提供的服务(如NFS服务)时,portmap会将所管理的与服务对应的端口号提供给客户端,使客户端可以通过该端口向服务器请求服务。Portmap如果没有运行,NFS客户端就无法查找从NFS服务器中共享的目录 以下以RedHat 红帽9为例

极品飞车9全攻略

1 NFS:MW各种模式比赛心得 赛事分为:竞速赛、直线加速赛、跑道赛、测速器竞速、收费站竞速和跑圈淘汰赛。 里程碑分为:赏金、撞击、政府支出挑战、照相罚单竞速、违法事件挑战、追击时间、脱逃追击、路障和钉刺带。 竞速赛 要点:全场不要落后太多 技巧:有技术的人会带头至终点;一旦落后,在尾段也不要落后太多,尝试在终点前那一段利用氮气加速直接KO众多对手。 直线加速赛 要点:准确换档 技巧:一档二档是至关紧要的,所以必须熟悉赛车的引擎性能。 不到一分钟的赛程却有大量的慢车出现在赛道上,建议使用车内视角以便集中精神做出更快的换线动作。 不要随意使用氮气加速 跑道赛 要点:利用第一圈了解赛道,如弯道倾斜度。 技巧:充分利用氮气加速;如进入大直路前。 跑圈淘汰赛 要点:利用第一圈了解赛道,如弯道倾斜度。 技巧:与跑道赛相似 测速器竞速 要点:确保每个测速点通过前有一定量的氮气储存量,利用氮气冲刺。 技巧:除非你技术到家,不然不明路况(包括弯道、测速点位置)的时候就不要领头带跑。 收费站竞速

要点:比赛开始就利用氮气加速 技巧:最后一个收费站可以全力使用氮气加速,以获得较高的时间奖励。 由于这种比赛都是在高速公路上举行,所以建议使用你觉得能看到最远的玩家视角进行比赛。 赏金 撞毁警车的赏金最多 撞击 对准警车的尾部撞上去,不要撞击车头。 政府支出挑战 政府支出包括警车损毁、城市设施等。 照相罚单竞速 在读取游戏的时候就按着油门不放。 赛事尾段利用氮气冲刺。 冲刺前千万不要撞上慢车,宁愿擦着围墙利用氮气加速通过。 追击时间 时速保持在100~130KM左右,警车来了就加快一点。 千万不要狂奔。 路障和钉刺带。 宁撞车尾,不撞车头。 合理利用飞速装置。 飞速装置作用如下: 1.使画面变慢,有利于你选择合适的行车路线。如果真要撞上围堵的警车,就撞击其中一台轻型车尾部。 2.使车辆有更好的抓地力、更大的转向角度以及额外的扭力,简单的说就是车辆有比平常更好转向性能和更强的撞击抵御能力。

LinuxNFS服务器的安装与配置

Linux NFS服务器的安装与配置 cpw806@qq. 网上看到一篇有关nfs服务器安装与配置的文章觉得非常不错所以就收藏了起来,鉴于有很多时候收藏的网页过段时间就会莫名的找不到了,所以决定全盘拷贝存档。对原作者表示感谢。本文来 源.cnblogs./mchina/archive/2013/01/03/2840040.html 一、NFS服务简介 NFS 是Network File System的缩写,即网络文件系统。一种使用于分散式文件系统的协定,由Sun公司开发,于1984年向外公布。功能是通过网络让不同的机器、不同的操作系统能够彼此分享个别的数据,让应用程序在客户端通过网络访问位于服务器磁盘中的数据,是在类Unix系统间实现磁盘文件共享的一种方法。 NFS 的基本原则是“容许不同的客户端及服务端通过一组RPC分享相同的文件系统”,它是独立于操作系统,容许不同硬件及操作系统的系统共同进行文件的分享。 NFS在文件传送或信息传送过程中依赖于RPC协议。RPC,远程过程调用(Remote Procedure Call) 是能使客户端执行其他系统中程序的一种机制。NFS本身是没有提供信息传输的协议和功能的,但NFS却能让我们通过网络进行资料的分享,这是因为NFS使用了一些其它的传输协议。而这些传输协议用到这个RPC功能的。可以说NFS本身就是使用RPC 的一个程序。或者说NFS也是一个RPC SERVER。所以只要用到NFS的地方都要启动RPC 服务,不论是NFS SERVER或者NFS CLIENT。这样SERVER和CLIENT才能通过RPC来实现PROGRAM PORT的对应。可以这么理解RPC和NFS的关系:NFS是一个文件系统,而RPC 是负责负责信息的传输。 二、系统环境 系统平台:CentOS release 5.6 (Final) NFS Server IP:192.168.1.108 防火墙已关闭/iptables: Firewall is not running. SELINUX=disabled 三、安装NFS服务 NFS的安装是非常简单的,只需要两个软件包即可,而且在通常情况下,是作为系统的默认包安装的。

NFS报文分析

1NFS报文分析 NFS协议基于RPC协议,每个NFS报文都对应着一个RPC报文类型。除NFS报文外,PORTMAP,MOUNT等同NFS密切相关的报文也在分析范围内。除特别说明外,本次分析服务器IP为192.168.0.120,客户端IP为192.168.0.186。 1.1 查询远程可挂载的目录 1.1.1NFS服务未开启 如果服务器未开启NFS功能输入 showmount –e 主机名或IP 则在终端显示: mount clntudp_create: RPC: Program not registered 主要交互流程: 客户端通过TCP与服务器的Portmap程序建立连接,尝试通过TCP 远程调用GETPORT,服务器返回MOUNT功能为开启。然后客户端再次尝试通过UDP达到此目的,服务期同样返回PROGRAM_NOT_AVAILABLE。整个过程是基于RPC的。

1.1.2NFS服务已开启 客户端首先通过PORTMAP远程调用请求MOUNT的端口。后面又重传两次,重传报文的XID相同的,而服务器就是通过XID来判断一个报文是否是另一个的REPLY。服务器得到请求后返回端口号33394。客户端使用33394端口来进行EXPORT类型MOUNT请求。服务器返回请求,内容如下: Procedure:EXPORT下面的V alue Follows代表List 是否还有内容。在获取到这个List后会在终端显示:

1.2 挂载远程目录 挂载远程目录的过程最本质的是如何获得此目录在服务器上的文件句柄,我们在分析下面的交互时始终以此为中心。 1.2.1挂载不存在的目录 首先通过客户端通过一个基于TCP的RPC获得MOUNT的端口32771,之后,客户端试图通过MOUNT请求来获得/home/work_ro 的句柄,从而实现远程挂载。但由于目录不存在,服务器会当作权限不够来处理,所以返回ERR_ACCESS。 1.2.2成功挂载 前面的交互和目录不存在的情况基本相同,只是服务器在MOUNT请求后返回了要挂在目录句柄。此后通过PORTMAP得到NFS的端口,

NFS服务安装与配置方案

NFS服务搭建方案 一、NFS简介 NFS它是Network File system 的缩写,即网络文件系统,我们可以通过NFS达到文件的共享,NFS 服务器设置一个共享目录或者文件给NFS 客户机,客户机就可以将服务器中的共享文件挂接在自己本地的目录下,来达到文件共享。Liunx系统一般默认安装了NFS服务。 下面我们将在129文件服务器(NFS服务器)上安装NFS服务然后在128web服务器(NFS 客户端)上挂载文件服务器的共享目录作为本地目录来使用。 二、文件服务器(192.168.198.129)NFS 服务安装与配置 (一)NFS服务安装 a)联网情况下:apt-get install nfs-common nfs-kernel-server nfs-client b)在没有网络的情况下需要nfs的rpm套件包进行安装 NFS服务需要5个RPM包。 setup-*:共享NFS目录在/etc/exports中定义 (linux默认都安装) initscripts-*:包括引导过程中装载网络目录的基本脚本 (linux默认都安装) nfs-utils-*:包括基本的NFS命令与监控程序 portmap-*:支持安全NFS RPC服务的连接 quota-*:网络上共享的目录配额,包括rpc.rquotad (这个包不是必须的)使用rpm命令安装,格式如下: rpm -ivh rpm包 安装完成后查看nfs当前的版本: rpm -qi portmap rpm -qi nfs-utils 启动portmap和nfs /etc/init.d/portmap start /etc/init.d/nfs start

材料失效准则详解

Chapter 2 材料失效理論(Material Failure Theories) 資料來源 1. 吳嘉祥等譯,機械元件設計,第八版,高立圖書有限公司,台北縣,2006, 2. Robert L. Norton, Machine Design An Integrated Approach, 3rd Edition, Pearson Prentice Hall, Person Education Inc., Upper Saddle River, New Jersey, 2006. 1. 材料分類 [1] 延性材料 (Ductile Materials) ● 材料受力延長量(應變)可達5% (或以上) ● 材料對滑動(Slip)之阻抗<對斷裂(Fracture)之阻抗 ● Material Failure (材料失效)因降伏(Yielding)而發生,此時應力到達Yielding Stress (降伏強度或Yielding Strength) ● 多數延展性材料:σyield 拉伸 ? σyield 壓縮 脆性材料 (Brittle Materials) ● 材料受力伸長量無法達到5%,(材料在應變到達5%前即已失效) ● 材料的斷裂阻抗<滑動阻抗 ● Material Failure 因斷裂而發生,此時應力到達Ultimate Stress (極限強度或Ultimate Strength) ● 多數脆性材料:σu 拉伸 < σu 壓縮 2. 延展性材料的材料失效理論(Failure Theories of Ductile Materials) [1] (a)最大法向應力失效理論(Max. Normal Stress Failure Theory) =>若不符合以下三個不等式關係中任何一個,即為Failure fs ypt 1fs ypc N S N S ≤ ≤σ (1a) fs ypt 2fs ypc N S N S ≤ ≤σ (1b) fs ypt 3fs ypc N S N S ≤ ≤σ (1c) 上式中,σ1, σ2, σ3為主應力(Principle Stress),下標t 代表tension (拉伸)、下標c 代表compression (壓縮),其他符號: .上式應用於延性材料

极品飞车18图像和按键设置详解

极品飞车18 图像和按键设置详解 极品飞车18是?款效果?常逼真的游戏,?且众多的车辆也是玩家的??乐趣之?,不过想要解锁相关车辆还是需要尽量提???的操作?平才?,下?是游戏画?和按键配置?件详解。 图像和按键设置详解 极品飞车18使?的寒霜3引擎,硬件要求较?,?且游戏?可以调整的图像设定?较少,这给中低配置的玩家带来了困扰。不过根据以往的惯例,寒霜引擎的游戏会在存档?件夹?成配置?件,?系统?带的写字板打开就可以编辑了,能够调节的内容?从游戏中要多的多。其中包括声?、图像以及按键等设置,最重要的当然是图像设置,在这?我就把各个图像设置项的含义给简单的说?下,新?可以看看,???动忽略。配置?件的位置是我的?档下的G h o s t G a m e s N e e d f o r S p e e d(T M) R i v a l s s e t t i n g s P R O F I L E O P T I O N S_p r o?l e,该?件没有后缀,可以?系统写字板直接打开进?编辑。 G s t R e n d e r.A m b i e n t O c c l u s i o n环境光遮蔽,0关闭,1打开 G s t R e n d e r.B r i g h t n e s s伽马设定,简单说就是亮度,0.500000即50% G s t R e n d e r.E f f e c t s Q u a l i t y特效效果,0低,1普通,2?,3极致 G s t R e n d e r.F u l l s c r e e n E n a b l e d全屏设置,0关闭,1打开 G s t R e n d e r.H e a d l i g h t S h a d o w s E n a b l e d车头灯阴影,打开时车灯照着的物体会有影?。0关闭,1打开 G s t R e n d e r.M e s h Q u a l i t y?格渲染度,简单来说就是3D模型的渲染距离,开的越?视野越远,越能看到远处的3D模型。0近,1中,2远,3很远 G s t R e n d e r.M o t i o n B l u r E n a b l e d动态模糊效果,0关闭,1打开 G s t R e n d e r.R e?e c t i o n Q u a l i t y光线反射质量,0低,1普通,2?,3极致 G s t R e n d e r.R e s o l u t i o n H e i g h t分辨率?度 G s t R e n d e r.R e s o l u t i o n Wi d t h分辨率宽度 G s t R e n d e r.S c r e e n S a f e A r e a H a s B e e n S e t安全框设定,这个建议到游戏?设置,毕竟那是可视界? G s t R e n d e r.S c r e e n S a f e A r e a H e i g h t安全框设定?度 G s t R e n d e r.S c r e e n S a f e A r e a Wi d t h安全框设定宽度 G s t R e n d e r.S h a d o w Q u a l i t y阴影质量,0低,1普通,2?,3极致 G s t R e n d e r.Te r r a i n Q u a l i t y地形细节,开的越?地貌刻画越细致,0低,1普通,2?,3极致

centos7配置NFS

CentOS 7 安装配置 NFS 环境 nps 192.168.1.97 client 192.168.1.98 一、yum 安装 yum -y install nfs-utilsrpcbind nfs 的配置文件 /etc/expots 默认为空 vi /etc/exports /opt/test/ 192.168.1.0/24(rw,no_root_squash,no_all_squash,sync,anonuid=501,anong id=501) 二、使配置生效 exportfs -r 注:配置文件说明: /opt/test 为共享目录 192.168.1.0/24 可以为一个网段,一个IP,也可以是域名,域名支持通配符如: *https://www.doczj.com/doc/7e15467419.html, rw:read-write,可读写; ro:read-only,只读; sync:文件同时写入硬盘和内存; async:文件暂存于内存,而不是直接写入内存; no_root_squash:NFS客户端连接服务端时如果使用的是root的话,那么对服务端分享的目录来说,也拥有root权限。显然开启这项是不安全的。 root_squash:NFS客户端连接服务端时如果使用的是root的话,那么对服务端分享的目录来说,拥有匿名用户权限,通常他将使用nobody或nfsnobody身份;

all_squash:不论NFS客户端连接服务端时使用什么用户,对服务端分享的目录来说都是拥有匿名用户权限; anonuid:匿名用户的UID值,可以在此处自行设定。 anongid:匿名用户的GID值。 三、启动 nfs servicerpcbind start servicenfs start chkconfigrpcbind on chkconfignfs on 四、客户端挂载: showmount -e 192.168.1.97 #查看可挂载 Export list for 192.168.1.97: /opt/test 192.168.1.0/24 客户端挂载 mount -t nfs 192.168.1.97:/opt/test /mnt 无提示既为成功 客户端在挂载的时候遇到的一个问题如下,可能是网络不太稳定,NFS默认是用UDP协议,换成TCP协议即可: mount -t nfs 192.168.1.97:/opt/test /mnt -o proto=tcp -o nolock

linux NFS 双机配置详解

LINUX NFS 双机配置详解 服务端双机共享文件系统/mnt/share 服务ip地址:192.168.1.100,客户端ip:192.168.1.0 服务端配置 1、备份VCS双机文件/etc/VRTSvcs/conf/config/main.cf 2、使用hastop -all -force命令停双机 3、在main.cf 中修改NFS资源,主要修改如下两部分中红色处; Share dNFS_Share1 ( PathName = "/share" Client = "192.168.1.0/255.255.255.0" //可以将此处修改为”*”,表示不对客户端地址做限制,也可以在下面的OtherClients中增加多个网段。 OtherClients = { "10.0.1.0/255.255.255.0" } Options = "rw,async,insecure" ) NFS dNFS_NFS ( Nproc = 128 //支持最多客户端连接数 ) 修改以后进入main.cf所在目录,执行hacf -verify .检查main.cf是否正常; 分别在主备双机上使用hastart命令启动双机,如果双机启动失败,执行hasys -force 命令强制启动双机,为双机中任一个主机名。 1)在/etc/exports中增加/share 网段/掩码(rw,async,insecure),网段/掩码表示允许访 问的客户端网络,业务网段必须包含在内。也可以直接写成 *,表示不对地址做限制。 如图:

2)nfs进程数调整。修改/etc/sysconfig/nfs文件中USE_KERNEL_NFSD_NUMBER对应的配 置值(此值表示支持最多客户端连接数)。 USE_KERNEL_NFSD_NUMBER="128" 3)重启nfs服务并配置为自启动 SUSE8、SUSE9操作系统中请执行以下命令: # /etc/init.d/nfsserver restart # chkconfig nfslock on # chkconfig nfsserver on SUSE10操作系统中请执行以下命令: # /etc/init.d/nfsserver restart # chkconfig nfsserver on 检查nfs服务状态 输入./nfsserver status命令查看NFS服务是否为Running状态,若是则表示NFS服务正常。检查/etc/sysctl.conf文件 请执行more /etc/sysctl.conf命令检查sysctl.conf文件,如果文件中有 “net.ipv4.conf.all.arp_ignore”和“net.ipv4.conf.default.arp_ignore”参数,请首先备份 /etc/sysctl.conf文件,并将这两个参数值修改为1,如果没有则忽略此步骤。修改后的效果为:net.ipv4.conf.all.arp_ignore = 1 net.ipv4.conf.default.arp_ignore = 1 保存修改后执行以下命令使修改生效: sysctl –p rcnetwork restart #该命令会导致网络瞬间中断 客户端主机执行命令 mount -t nfs 192.168.1.100:/mnt/share /mnt/fileserver 检查: df -h

NFS服务器配置与应用

NFS服务器配置与应用 【实验目的】 1、掌握Linux系统下NFS服务器安装 2、掌握Linux系统下NFS服务器的配置 3、学会Linux系统下NFS客户端的使用 【实验内容】 1.NFS介绍 NFS(Network FileSystem,网络文件系统)是由SUN公司发展,并于1984年推出的技术,用于在不同机器,不同操作系统之间通过网络互相分享各自的文件。NFS设计之初就是为了在不同的系统间使用,所以它的通讯协议设计与主机及操作系统无关。 NFS分服务器和客户机,当使用远端文件时只要用mount命令就可把远端NFS服务器上的文件系统挂载在本地文件系统之下,操作远程文件与操作本地文件没有不同。NFS服务器所共享文件或目录记录在/etc/exports文件中。 嵌入式Linux开发中,会经常使用NFS,目标系统通常作为NFS客户机使用,Linux主机作为NFS服务器。在目标系统上通过NFS,将服务器的NFS共享目录挂载到本地,可以直接运行服务器上的文件。在调试系统驱动模块以及应用程序,NFS都是十分必要的,并且Linux还支持NFS根文件系统,能直接从远程NFS root启动系统,这对嵌入式Linux根文件系统裁剪和集成也是十分有必要的。 NFS的优点: 1)本地工作站可以使用更少的磁盘空间,因为常用数据可以保存在一台机 器上,并让网络上的其他机器可以访问它 2)不需要为用户在每台网络机器上放一个用户目录,用户目录可以在NFS 服务器上设置并使其在整个网络上可用 3)存储设备可以被网络上其他机器使用。这可以减少网络上移动设备的数 量 2.在Ubuntu上布置NFS 1)安装NFS sudo apt-get install nfs-kernel-server 2)配置NFS,添加共享目录 设置NFS-Server目录。 在做NFS服务器的电脑上设置子目录:如/home/****/nfs,供客户机访问,

云存储三种流派的解析

云存储架构三种经典流派全解读 存储专家分别就UnitedStack文件共享服务、IBM弹性存储和HP Helion VSA 进行了深入解读,详细阐述了OpenStack Manila和Ceph、GPFS到弹性存储的演进、VSA和Helion的结合等技术。这也可以说是目前市场上云环境下存储架构的经典流派解读。 UnitedStack:如何在OpenStack平台实现文件共享服务? 文件共享服务是企业存储的刚性需求。根据IDC 2012数据,65%的数据存储是以文件的形态存在的,大量传统应用需要使用文件系统作为存储媒介。现在大量企业应用往云平台上迁移,自然对传统NAS服务在虚拟化环境下的实现有强烈的需求,那么在OpenStack平台上,如何实现文件共享服务呢? 目前,由NetAPP和Mirantis主导的Manila项目越来越受到OpenStack用户的关注,Manila提供了安全的多租户的文件共享服务,现在支持NFS和CIFS,在OpenStackJuno版中已经有了稳定分支。Manila的核心概念有:共享目录、ACL、共享网络、快照、后端驱动。目前支持的后端驱动有GPFS、GlusterFS、EMCVNX等。在云平台上,所有服务必须要考虑多租户资源隔离,目前Manila的多租户资源隔离依赖于Neutron的私有网络隔离。

Manila的通用驱动的方式是通过Nova创建一台虚拟机(Service VM),通过Cinder创建一个Volume,并挂载到Service VM上。Service VM格式化这个Volume,用它作为共享目录,对外提供NFS/CIFS共享服务。 相对于块存储,Manila面临的问题更多。复杂性更高:Manila需要同时满足认证、网络、协议的要求。性能要求更高:文件共享服务对后端存储和网络都需要更大的吞吐和更低的延迟。扩展性要求更高:文件共享服务需要同时满足Scale-out和Scale-up。那么UnitedStack如何解决这些问题呢? UnitedStack将会使用Ceph去解决这些问题。UnitedStack作为Ceph和OpenStack的深度玩家,有能力Hold住Ceph,给用户提供高性能、高可用的文件共享服务。 不可回避的是,Manila通用驱动有不少缺点,而UnitedStack将会使用更高效的整合方案,避开这些缺点。 IBM:从GPFS到弹性存储 如何把GPFS打造成OpenStack的Elastic Storage,作为Nova、Cinder、Glance、Swift、Manila的统一存储。GPFS是IBM的基于共享磁盘的并行文件系统,支持AIX、Linux、Windows操作系统,以及IBM的Power、Z和Intel/AMD

存储基础知识DAS、SAN、NAS详解说明

存储基础知识DAS、SAN、NAS详解说明 目前磁盘存储市场上,存储分类(如下表一)根据服务器类型分为:封闭系统的存储和开放系统的存储,封闭系统主要指大型机,AS400等服务器,开放系统指基于包括Windows、UNIX、Linux等操作系统的服务器;开放系统的存储分为:内置存储和外挂存储;开放系统的外挂存储根据连接的方式分为:直连式存储(Direct-Attached Storage,简称DAS)和网络化存储(F abric-Attached Storage,简称FAS);开放系统的网络化存储根据传输协议又分为:网络接入存储(Network-Attached Storage,简称NAS)和存储区域网络(Storage Area Netw ork,简称SAN)。由于目前绝大部分用户采用的是开放系统,其外挂存储占有目前磁盘存储市场的70%以上,因此本文主要针对开放系统的外挂存储进行论述说明。 表一: 存储入门:图文阐释DAS、NAS、SAN(图一) 今天的存储解决方案主要为:直连式存储(DAS)、存储区域网络(SAN)、网络接入存储(NAS)。如下表二:

存储入门:图文阐释DAS、NAS、SAN(图二) 开放系统的直连式存储(Direct-Attached Storage,简称DAS)已经有近四十年的使用历史,随着用户数据的不断增长,尤其是数百GB以上时,其在备份、恢复、扩展、灾备等方面的问题变得日益困扰系统管理员。 主要问题和不足为: 直连式存储依赖服务器主机操作系统进行数据的IO读写和存储维护管理,数据备份和恢复要求占用服务器主机资源(包括CPU、系统IO等),数据流需要回流主机再到服务器连接着的磁带机(库),数据备份通常占用服务器主机资源20-30%,因此许多企业用户的日常数据备份常常在深夜或业务系统不繁忙时进行,以免影响正常业务系统的运行。直连式存储的数据量越大,备份和恢复的时间就越长,对服务器硬件的依赖性和影响就越大。 直连式存储与服务器主机之间的连接通道通常采用SCSI连接,带宽为10MB/s、20MB/s、40MB/s、80MB/s等,随着服务器CPU的处理能力越来越强,存储硬盘空间越来越大,阵列的硬盘数量越来越多,SCSI通道将会成为IO瓶颈;服务器主机SCSI ID资源有限,能够建立的SCSI通道连接有限。 无论直连式存储还是服务器主机的扩展,从一台服务器扩展为多台服务器组成的群集(Clust er),或存储阵列容量的扩展,都会造成业务系统的停机,从而给企业带来经济损失,对于银行、电信、传媒等行业7×24小时服务的关键业务系统,这是不可接受的。并且直连式存储或服务器主机的升级扩展,只能由原设备厂商提供,往往受原设备厂商限制。 存储区域网络(Storage Area Network,简称SAN)采用光纤通道(Fibre Channel)技术,通过光纤通道交换机连接存储阵列和服务器主机,建立专用于数据存储的区域网络。SA N经过十多年历史的发展,已经相当成熟,成为业界的事实标准(但各个厂商的光纤交换技术不

相关主题
文本预览
相关文档 最新文档