当前位置:文档之家› hadoop2.0安装文档

hadoop2.0安装文档

hadoop2.0安装文档
hadoop2.0安装文档

hadoop2.0安装文档

前期准备

安装文件版本

hadoop版本:hadoop-2.0.0-cdh4.2.2

zookeeper 版本:zookeeper-3.4.5-cdh4.2.2

hive版本:hive-0.10-cdh4.2.2

jdk版本: jdk-6u31-linux-x64.bin(或更高)

准备好相应版本安装文件后,请将安装文件上传到集群目录中

修改主机名

修改IP地址及主机名(以root用户登录,每个节点都需要配置)

vi /etc/sysconfig/network

NETWORKING=yes

HOSTNAME=master

GATEWAY=192.168.101.1

注: HOSTNAME为当前主机名字,GATEWAY:网关

修改/etc/hosts中已经配置了的主机(每个节点都需要配置):

127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 #::1 localhost localhost.localdomain localhost6 localhost6.localdomain6

注:以上配置文件修改完成后,需重启主机生效

新建用户

创建hadoop 集群专用用户

groupadd hadoop (新建hadoop集群用户组)

useradd –g hadoop hduser (新建hadoop用户)

passwd hduser (设置用户密码,hduser上一步创建的用户)

免身份登录

进入集群用户home目录

1.生成公钥和私钥主节点到其它节点

ssh-keygen -t rsa

默认在~/.ssh目录生成两个文件:

id_rsa :私钥

id_rsa.pub :公钥

安装JDK

注:此步骤每个集群节点都需要做,可通过scp命令考贝至集群

在jdk-6u31-linux-x64.bin文件存在目录,执行./jdk-6u31-linux-x64.bin将自动解压jdk,并生成相应目录.如无法解压请先设置jdk-6u31-linux-x64.bin权限chmod 777 jdk-6u31-linux-x64.bin然后在执行./ jdk-6u31-linux-x64.bin操作.

在安装完jdk后,需将jdk目录配置到系统环境或用户环境变量中.在当前用户home下,执行vi .bashrc (用户环境变量)

增加如下代码:

JAVA_HOME=/usr/jdk6/jdk1.6.0_32 (此为jdk安装目录,如有变动时请手动修改) CLASSPATH=$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$CLASSPATH

PATH=$JAVA_HOME/bin:$PATH

export JAVA_HOME CLASSPATH PATH

保存后执行source .bashrc 让环境变量立即生效

1.1关闭防火墙

(1)执行命令service iptables status查看防火墙是否允许

执行命令service iptables stop关闭防火墙

执行命令service iptables status验证是否关闭了

(2)

执行命令chkconfig --list|grep iptables 查看是否有on

执行命令chkconfig iptables off关闭防火墙自动运行

执行命令chkconfig --list|grep iptables 查看是否有on

hadoop2.0集群安装

上传hadoop介质hadoop-2.0.0-cdh4.2.2.tar.gz

$tar zxvf hadoop-2.0.0-cdh4.1.2.tar.gz 解压缩

修改/home/hadoop/hadoop-2.0.0-cdh4.1.2/etc/hadoop/hadoop-env.sh

JAVA_HOME=/usr/jdk6/jdk1.6.0_32 (jdk安装目录)

以下可根据集群性能酌情配置

export HADOOP_HEAPSIZE=

Hadoop集群安装完毕后,第一件事就是修改bin/hadoop-evn.sh文件设置内存。主流节点内存配置为32GB,典型场景内存设置如下

NN: 15-25 GB

JT:2-4GB

DN:1-4 GB

TT:1-2 GB,Child VM 1-2 GB

集群的使用场景不同相关设置也有不同,如果集群有大量小文件,则要求NN内存至少要20GB,DN内存至少2GB。

增加hadoop环境变量,

vi .bashrc

HADOOP_HOME=/home/cup/hadoop-2.0.0-cdh4.2.2 (hadoop解压目录)

HADOOP_MAPRED_HOME=$HADOOP_HOME

HADOOP_COMMON_HOME=$HADOOP_HOME

HADOOP_HDFS_HOME=$HADOOP_HOME

YARN_HOME=$HADOOP_HOME

HADOOP_CONF_HOME=${HADOOP_HOME}/etc/hadoop

YARN_CONF_DIR=${HADOOP_HOME}/etc/hadoop

HADOOP_HOME_WARN_SUPPRESS=1

HADOOP_CLASSPATH=$CLASSPATH

HADOOP_CLASSPATH=${HADOOP_HOME}/share/hadoop/common:${HADOOP_HOME}/share/ha doop/common/lib:$HADOOP_CLASSPATH

HADOOP_CLASSPATH=${HADOOP_HOME}/share/hadoop/hdfs:${HADOOP_HOME}/share/hadoo p/hdfs/lib:$HADOOP_CLASSPATH

HADOOP_CLASSPATH=${HADOOP_HOME}/share/hadoop/mapreduce:${HADOOP_HOME}/share/ hadoop/mapreduce/lib:$HADOOP_CLASSPATH

HADOOP_CLASSPATH=${HADOOP_HOME}/share/hadoop/tools/lib:$HADOOP_CLASSPATH HADOOP_CLASSPATH=${HADOOP_HOME}/share/hadoop/yarn:${HADOOP_HOME}/share/hadoo p/yarn/lib:$HADOOP_CLASSPATH

HADOOP_CLASSPATH=`$HBASE_HOME/bin/hbase classpath`:$HADOOP_CLASSPATH

JAVA_LIBRARY_PATH=$JAVA_LIBRARY_PATH:${HADOOP_HOME}/lib/native:/usr/lib64:/usr/local/li b

LD_LIBRARY_PATH=$LD_LIBRARY_PATH:${HADOOP_HOME}/lib/native:/usr/lib64:/usr/local/lib

PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEEPER_HOME/bin:$HBASE_HOME/bi n:$ANT_HOME/bin:$MAVEN_HOME/bin:/home/cup/shell:$PATH

export JAVA_LIBRARY_PATH LD_LIBRARY_PATH HADOOP_CLASSPATH

export HADOOP_HOME HADOOP_MAPRED_HOME HADOOP_COMMON_HOME HADOOP_HDFS_HOME YARN_HOME

export ZOOKEEPER_HOME HBASE_HOME ANT_HOME MAVEN_HOME HADOOP_HOME_WARN_SUPPRESS PATH

# HIVE_HOME=/home/cup/hive-0.10.0-cdh4.2.1

# HADOOP_CLASSPATH=${HIVE_HOME}/lib:$HADOOP_CLASSPATH

# HIVE_CLASSPATH=$HBASE_HOME/conf

# PATH=$HIVE_HOME/bin:$PATH

# export HIVE_HOME HIVE_CLASSPATH HADOOP_CLASSPATH PATH

$source . bashrc (使配置文件生效)

修改hadoop配置文件

core-site.xml

/home/hadoop/hadoop-2.0.0-cdh4.1.2/etc/hadoop/core-site.xml

fs.defaultFS

hdfs://master:9000

hadoop.tmp.dir

/home/hduser/hadoop/hadoopworkspace/tmp

fs.trash.interval

1440

hdfs-site.xml

/home/hadoo p/hadoop-2.0.0-cdh4.1.2/etc/hadoop/hdfs-site.xml

https://www.doczj.com/doc/df5713505.html,.dir

/home/hadoop/hadoopworkspace/dfs/name

dfs.datanode.data.dir

/home/hadoop/hadoopworkspace/dfs/data

dfs.replication

3

dfs.permissions

false

mapred-site.xml

/home/hadoop/hadoop-2.0.0-cdh4.1.2/etc/hadoop/mapred-site.xml

https://www.doczj.com/doc/df5713505.html,

yarn

mapreduce.job.tracker

hdfs://cup-master-1:9001

true

mapreduce.jobtracker.address

cup-master-1:9002

The host and port that the MapReduce job tracker runs at. If "local", then jobs are run in-process as a single map

and reduce task.

mapred.system.dir

/home/hadoop/hadoopworkspace/mapred/system

true

mapred.local.dir

/home/hadoop/hadoopworkspace/mapred/local

true

yarn-site.xml

/home/hadoop/hadoop-2.0.0-cdh4.1.2/etc/hadoop/yarn-site.xml

yarn.resourcemanager.address

cup-master-1:8080

yarn.resourcemanager.scheduler.address

cup-master-1:8081

yarn.resourcemanager.resource-tracker.address

cup-master-1:8082

yarn.nodemanager.aux-services

mapreduce.shuffle

yarn.nodemanager.aux-services.mapreduce.shuffle.class

org.apache.hadoop.mapred.ShuffleHandler

各节点上hadoop用户登录,创建hadoop工作目录,与以上红色部分对应$mkdir /home/hadoop/hadoopworkspace

修改slaves启动节点配置

vi /home/hadoop/hadoop-2.0.0-cdh4.1.2/etc/hadoop/slaves

cup-slave-1

cup-slave-2

cup-slave-3

cup-slave-4

修改secondrynamenode启动节点配置

vi /home/hadoop/hadoop-2.0.0-cdh4.1.2/etc/hadoop/masters

cup-master-2

将安装好的hadoop复制到基它节点,复制时指定机器的目录需与主机目录相同.依次执行各节点

scp –r /home/hadoop/hadoop-2.0.0-cdh4.2.2 用户名@主机名或IP:/home/hadoop

启动集群

$hdfs namenode -format 第一次需要格式化namenode

./start-dfs.sh(启动)

./start-yarn.sh(启动)

./stop-dfs.sh(停止)

./stop-yarn.sh (停止)

以上操作slave节点会被自动启动以及关闭

浏览器中输入http://192.168.101.122:8088可以查看mapreduce集群状态

http://192.168.101.122:50070可以查看hdfs状态

$jps 查看进程

NN: ResourceManager NameNode SecondaryNameNode

DN: NodeManager DataNode

以下部分如机器性能不够,可以选择不安装

zookpper安装

/home/hadoop/zookeeper-3.4.3-cdh4.2.2/conf/zoo_sample.cfg 改名为zoo.cfg

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/home/hduser/hadoop/hadoopworkspace/zookeeper/data

dataLogDir=/home/hduser/hadoop/hadoopworkspace/zookeeper/log

clientPort=2181

server.1=master-1:2888:3888

server.2=slave1:2888:3888

server.3=cup-slave-2:2888:3888

server.4=cup-slave-3:2888:3888

server.5=cup-slave-4:2888:3888

$mkdir /home/hduser/hadoop/hadoopworkspace/zookeeper/data

各节点依次执行,ZK不会自动创建

$mkdir /home/hduser/hadoop/hadoopworkspace/zookeeper/log

各节点依次执行,ZK不会自动创建

3. $scp -rp /home/hduser/zookeeper hduser@slave1:/home/hduser/

4. create myid in dataDir 各节点依次执行

for cup-master-1, the content in myid file should be 1

for cup-slave-1, the content in myid file should be 2

4. 配置ZK自动清理策略

/home/hadoop/zookeeper-3.4.3-cdh4.1.2/conf/zoo.cfg

autopurge.purgeInterval=2

autopurge.snapRetainCount=10

5. /home/hadoop/zookeeper-3.4.3-cdh4.1.2/bin/

$ ./zkServer.sh start 各节点依次执行启动(第一台机器启动时报大量错误,无妨,是因为还没有选出领导者的缘故)

6. $jps 进程查看

每个节点上都会多出一个QuorumPeerMain 进程

HA安装

HADOOP2.0 HA (NO NN Federation)

1. SSH无密码登陆配置

2. 修改hadoop配置文件(cup-master-1,cup-slave-1,cup-slave-2,cup-slave-3,cup-slave-4)

配置文件如下:

vi core-site.xml:

fs.defaultFS

hdfs://mycluster

ha.zookeeper.quorum

cup-master-1:2181,cup-slave-1:2181,cup-slave-2:2181,cup-slave-3:2181,cup-slave-4:2181

vi hdfs-site.xml

https://www.doczj.com/doc/df5713505.html,services

mycluster

https://www.doczj.com/doc/df5713505.html,nodes.mycluster

nn1,nn2

https://www.doczj.com/doc/df5713505.html,node.rpc-address.mycluster.nn1

cup-master-1:9000

https://www.doczj.com/doc/df5713505.html,node.rpc-address.mycluster.nn2

cup-master-2:9000

https://www.doczj.com/doc/df5713505.html,node.http-address.mycluster.nn1

cup-master-1:50070

https://www.doczj.com/doc/df5713505.html,node.http-address.mycluster.nn2

cup-master-2:50070

https://www.doczj.com/doc/df5713505.html,node.shared.edits.dir

qjournal://cup-master-1:8485;cup-slave-1:8485;cup-slave-2:8485;cup-slave-3:8485;cup-sl ave-4:8485/mycluster

dfs.journalnode.edits.dir

/home/hadoop/hadoopworkspace/dfs/jn

dfs.client.failover.proxy.provider.mycluster

https://www.doczj.com/doc/df5713505.html,node.ha.ConfiguredFailoverProxyProvider

dfs.ha.fencing.methods

shell(/bin/true)

或者是

dfs.ha.fencing.methods

sshfence

dfs.ha.fencing.ssh.private-key-files

/home/exampleuser/.ssh/id_rsa

dfs.ha.fencing.ssh.connect-timeout

30000

SSH connection timeout, in milliseconds, to use with the builtin

sshfence fencer.

dfs.datanode.max.transfer.threads

4096

Specifies the maximum number of threads to use for transferring data

in and out of the DN.

dfs.ha.automatic-failover.enabled

true

https://www.doczj.com/doc/df5713505.html,.dir

/home/hadoop/hadoopworkspace/dfs/name

dfs.datanode.data.dir

/home/hadoop/hadoopworkspace/dfs/data

[root@HA2kerberos conf]# vi slaves

cup-slave-1

cup-slave-2

cup-slave-3

cup-slave-4

3. master-1上的hadoop拷贝到master-2上scp

4. 把各个zookeeper起来

5. 然后在某一个主节点执行hdfs zkfc -formatZK,创建命名空间

6. 在https://www.doczj.com/doc/df5713505.html,node.shared.edits.dir指定的各个节点

(qjournal://cup-master-1:8485;cup-slave-1:8485;cup-slave-2:8485;cup-slave-3:8485;cup-slave-4: 8485/mycluster)

用./hadoop-daemon.sh start journalnode启日志程序

7. 在主namenode节点用hadoop namenode -format格式化namenode和journalnode目录

8. 在主namenode节点启动./hadoop-daemon.sh start namenode进程./start-dfs.sh

9. 在备namenode节点执行hdfs namenode -bootstrapStandby,

这个是把主namenode节点的目录格式化并把数据从主namenode节点的元数据拷本过来

然后用./hadoop-daemon.sh start namenode启动namenode进程!

6. ./hadoop-daemon.sh start zkfc 主备namenode两个节点都做

7. ./hadoop-daemon.sh start datanode所有datanode节点都做

先起namenode在起zkfc你会发现namenode无法active状态,当你把zkfc启动后就可以了!!!以上的顺序不能变,我在做的过程就因为先把zkfc启动了,导到namenode起不来!!!

自动启动的时候能看出来,zkfc是最后才启动的!!

[hadoop@ClouderaHA1 sbin]$ ./start-dfs.sh

Starting namenodes on [ClouderaHA1 ClouderaHA2]

ClouderaHA1: starting namenode, logging to /app/hadoop/logs/hadoop-hadoop-namenode-ClouderaHA1.out

ClouderaHA2: starting namenode, logging to /app/hadoop/logs/hadoop-hadoop-namenode-ClouderaHA2.out

ClouderaHA3: starting datanode, logging to

/app/hadoop/logs/hadoop-hadoop-datanode-ClouderaHA3.out

ClouderaHA1: starting datanode, logging to /app/hadoop/logs/hadoop-hadoop-datanode-ClouderaHA1.out

ClouderaHA2: starting datanode, logging to /app/hadoop/logs/hadoop-hadoop-datanode-ClouderaHA2.out

Starting ZK Failover Controllers on NN hosts [ClouderaHA1 ClouderaHA2]

ClouderaHA1: starting zkfc, logging to /app/hadoop/logs/hadoop-hadoop-zkfc-ClouderaHA1.out ClouderaHA2: starting zkfc, logging to /app/hadoop/logs/hadoop-hadoop-zkfc-ClouderaHA2.out

A. 先各个节点启journalnode

hadoop-daemon.sh start journalnode

B. 在主master节点start-dfs.sh start-yarn.sh

[hadoop@cup-master-1 ~]$ start-dfs.sh

Starting namenodes on [cup-master-1 cup-master-2]

hadoop@cup-master-1's password: cup-master-2: starting namenode, logging to /home/hadoop/hadoop-2.0.0-cdh4.1.2/logs/hadoop-hadoop-namenode-cup-master-2.out

cup-master-1: starting namenode, logging to /home/hadoop/hadoop-2.0.0-cdh4.1.2/logs/hadoop-hadoop-namenode-cup-master-1.out

cup-slave-4: starting datanode, logging to /home/hadoop/hadoop-2.0.0-cdh4.1.2/logs/hadoop-hadoop-datanode-cup-slave-4.out

cup-slave-1: starting datanode, logging to /home/hadoop/hadoop-2.0.0-cdh4.1.2/logs/hadoop-hadoop-datanode-cup-slave-1.out

cup-slave-3: starting datanode, logging to /home/hadoop/hadoop-2.0.0-cdh4.1.2/logs/hadoop-hadoop-datanode-cup-slave-3.out

cup-slave-2: starting datanode, logging to /home/hadoop/hadoop-2.0.0-cdh4.1.2/logs/hadoop-hadoop-datanode-cup-slave-2.out Starting ZK Failover Controllers on NN hosts [cup-master-1 cup-master-2]

hadoop@cup-master-1's password: cup-master-2: starting zkfc, logging to /home/hadoop/hadoop-2.0.0-cdh4.1.2/logs/hadoop-hadoop-zkfc-cup-master-2.out

cup-master-1: starting zkfc, logging to /home/hadoop/hadoop-2.0.0-cdh4.1.2/logs/hadoop-hadoop-zkfc-cup-master-1.out

[hadoop@cup-master-1 ~]$

[hadoop@cup-master-1 ~]$ jps

30939 NameNode

28526 QuorumPeerMain

29769 JournalNode

31283 Jps

31207 DFSZKFailoverController

[hadoop@cup-master-1 ~]$

[hadoop@cup-master-2 ~]$ jps

13197 DFSZKFailoverController

12305 NameNode

15106 Jps

[hadoop@cup-master-2 ~]$

[hadoop@cup-master-1 ~]$ start-yarn.sh

starting yarn daemons

starting resourcemanager, logging to /home/hadoop/hadoop-2.0.0-cdh4.1.2/logs/yarn-hadoop-resourcemanager-cup-master-1.out cup-slave-4: starting nodemanager, logging to /home/hadoop/hadoop-2.0.0-cdh4.1.2/logs/yarn-hadoop-nodemanager-cup-slave-4.out

cup-slave-1: starting nodemanager, logging to /home/hadoop/hadoop-2.0.0-cdh4.1.2/logs/yarn-hadoop-nodemanager-cup-slave-1.out

cup-slave-3: starting nodemanager, logging to /home/hadoop/hadoop-2.0.0-cdh4.1.2/logs/yarn-hadoop-nodemanager-cup-slave-3.out

cup-slave-2: starting nodemanager, logging to /home/hadoop/hadoop-2.0.0-cdh4.1.2/logs/yarn-hadoop-nodemanager-cup-slave-2.out [hadoop@cup-master-1 ~]$

[hadoop@cup-master-1 ~]$ jps

30939 NameNode

28526 QuorumPeerMain

29769 JournalNode

31628 Jps

31207 DFSZKFailoverController

31365 ResourceManager

[hadoop@cup-master-1 ~]$

[hadoop@cup-master-2 ~]$ jps

13197 DFSZKFailoverController

12305 NameNode

17092 Jps

由此得知HA只是针对HDFS, 与MR2无关

[hadoop@cup-slave-1 ~]$ jps

30692 JournalNode

31453 NodeManager

31286 DataNode

30172 QuorumPeerMain

31562 Jps

[hadoop@cup-slave-1 ~]$

注意事项

在选择数据存储目录时,需选择磁盘空间比较大的目录

DataStageV8.5配置连接oracle操作手册

DataStageV8.5配置连接oracle 操作手册 编制:长安铃木信息系统课 王川 2012-5-7

目录 1概述 (4) 1.1编写目的 (4) 1.2系统配置 (4) 1.3事前准备 (4) 2开始安装客户端 (4) 3配置DATASTAGE 环境 (6) 4配置测试 (7)

文档版本记录 版本编号变更内容变更人日期

DataStageV8.5配置连接oracle 操作手册 1概述 1.1 编写目的 DataStage V8.5 在安装后默认支持DB2 数据库,为了实现抽取ORACLE 数据库,需要配置服务器端。 1.2 系统配置 DataStage V8.5 Suse linux server sp1 1.3 事前准备 1、安装XFTP:传递文件。 2、开启SSH服务:终端控制。 3、Oracle官网下载11g client。 https://www.doczj.com/doc/df5713505.html,/technetwork/database/enterprise-edition/downloads/112010-linuxsoft- 085393.html 2开始安装客户端 1、FTP上传linux_11gR2_client.zip ,并解压至TMP目录。 2、创建组和权限。 groupadd oinstall groupadd dba useradd –g oinstall –G dba –m oracle passwd oracle mkdir –p /home/oracle/ chown -R oracle:oinstall /home/oracle/ 3、修改环境配置文件。 /etc/sysctl.conf 加上如下内容 fs.aio-max-nr = 1048576 fs.file-max = 6815744 kernel.shmall = 2097152 kernel.shmmax = 536870912 kernel.shmmni = 4096 kernel.sem = 250 32000 100 128 net.ipv4.ip_local_port_range = 9000 65500 net.core.rmem_default = 262144 net.core.rmem_max = 4194304 net.core.wmem_default = 262144 net.core.wmem_max = 1048586 net.ipv4.tcp_wmem = 262144 262144 262144 net.ipv4.tcp_rmem = 4194304 4194304 4194304

DataStage-V11.3部署手册

DataStageV11.3 安装手册 修订记录

一、基础安装环境检查 1.操作系统Redhat Linux6需要的安装补丁包 glibc-2.12-1.107.el6.x86_64 libXp-1.0.0-15.1.el6.x86_64 libXau-1.0.5-1.el6.x86_64 libXext-1.1-3.el6.x86_64 libX11-1.3-2.el6.x86_64 libxcb-1.5-1.el6.x86_64 libXmu-1.0.5-1.el6.x86_64 nss-softokn-freebl-3.14.3-9.el6.x86_64 pam-1.1.1-4.el6_0.1.x86_64 libaio-0.3.107-10.el6.x86_64 libstdc++-4.4.7-3.el6.x86_64 compat-libstdc++-33-3.2.3-69.el6.x86_64 libgcc-4.4.7-3.el6.x86_64 2.检查操作方法 rpm –qa | grep glibc 3.授权文件配置 将授权文件解压至安装文件is-suite文件夹下

二、创建oracle数据库 1.将DataStage初始化Oracle数据库脚本上传至数据库 服务器 2.依次执行数据库初始化脚本 ./create_xmeta_db.sh sys Oracle123 orcldb dsadmin dsadmin'!'123 DATASTAGE /oracle/app/oracle/oradata/orcldb ./create_xmeta_db.sh sys Oracle123 orcldb wsadmin wsadmin'!'123 DATASTAGE1 /oracle/app/oracle/oradata/orcldb

【BI安装】Datastage_V8.1.0_for_Rhel5.4_64bit安装文档

Information Server8.1.0安装文档 目录 Information Server8.1.0安装文档 (1) 备注说明: (1) 安装前系统要求: (2) 1)WAS安装包需求: (2) 2)Infomation Server安装包需求: (3) 3)Linux内核参数最低需求 (3) 4)HP-UX内核参数最底要求 (4) 5)产品和必须安装这些产品的层。 (4) 安装步骤: (5) 一、系统环境: (5) 二、修改内核参数,安装必要必定包: (6) 三、安装WAS和两个升级补丁包 (6) 1)安装WAS (6) 2)将WAS升级到6.0.2.0版本 (10) 3)将WAS升级到6.0.2.7版本 (12) 四、安装Information Server (18) 参数配置: (29) 1.配置dsenv文件 (29) 2.配置ODBC参数 (30) 3.配置DS编译器变量 (32) 4.配置dsadm用户的.bash_profile文件 (32) IIS服务启动和停止: (32) 1.服务停止 (32) 3.服务启动 (33) 备注说明: 1.要在Linux?和UNIX?上复用现有的DB2安装,必须使用DB2故障监视组件(需要 在/etc/inittab文件中输入故障监视器(db2fmcd)的路径)。 db2fmcd命令必须指向实际的可执行文件位置,例如: fmc:234:respawn:/u1/IBM/db2/V9/bin/db2fmcd#DB2Fault Monitor Coordinator 2.需要的C++编译器和运行时库:

对于64位HP-UX11i v2on Intel Itaium 6.16acc:HP C/aC++B3910B A.06.14 32位和64位Red Hat Enterprise Linux5Advanced Platform GCC 4.1.2 对于HP-UX11.x和10.x,用下面的命令确定版本: what/opt/CC/bin/CC 3.WAS官网安装文档: https://www.doczj.com/doc/df5713505.html,/infocenter/wasinfo/v6r0/index.jsp InfoServ文档: https://www.doczj.com/doc/df5713505.html,/infocenter/iisinfsv/v8r1/index.jsp?topic=/com.ibm.swg.im.iis. productization.iisinfsv.relinfo.doc/topics/iisihrinfo_infsv_rnote_v81ga.html 各种指南:https://www.doczj.com/doc/df5713505.html,/support/docview.wss?rs=14&uid=swg27013660 DB2官方文档: https://www.doczj.com/doc/df5713505.html,/infocenter/db2luw/v9r5/index.jsp?topic=/com.ibm.db2.luw.qb.se rver.doc/doc/t0006477.html 结构拓扑图: 安装前系统要求: 1)WAS安装包需求: compat-libstdc++-33-3.2.3-61

datastage常用组件使用方法:

常用组件使用方法: 1. Sequential file 功能特点:适用于一般顺序文件(定长或不定长),可识别文本文件或IBM大机ebcdic文件。 使用要点: 按照命名规范命名 点住文件,双击鼠标,在general说明此文件内容,格式,存储目录等。 2. Annotation 功能特点: 一般用于注释,可利用其背景颜色在job中分颜色区别不同功能块 3. Change Capture Stage 功能特点: Change Capture Stage有两个输入,分别标记为before link 及after link。输出的数据表示before link 和after link的区别,我们称作change set。Change Capture Stage可以和Change Apply Stage配合使用来计算after set。 使用要点: key及value的说明:key值是比较的关键值,value是当key值相同是作进一步比较用的。 change mode选项说明: All keys,Explicit Values 需要指定value,其余字段为key Explicit Keys&Values key及value都需要指定

Explicit Keys,All Values 需要指定key,其余的字段为value 输出策略说明: Drop Output For Copy False:保留before及afte link中key值相同的行 True:删除before及afte link中key值相同的行 Drop Output For Delete False:保留before link中有但是after link中没有的key值所在的行 True:删除before link中有但是afte link中没有的key值所在的行 Drop Output For Edit False:保留key值相同,value不同的行 True:删除key值相同,value不同的行 Drop Output For Insert False:保留before link中没有但afte link中有的key值所在的行 True:删除before link中没有但afte link中有的key值所在的行 4. Copy Stage 功能说明: Copy Stage可以有一个输入,多个输出。他可以在输出时改变字段的顺序,但是不能改变字段类型。 注意: 当只有一个输入及一个输出时最好将Force设置为True,这样可以在Designer里看到运行结束,否

DataStage安装和配置手册

DataStage 安装和配置手册 1安装环境检查 ●安装用户 在本项目中,约定以administrator用户安装DataStage V8.1 ●系统平台需求(Windows) Windows Server 2003 Service Pack 2、 ●IBM InfoSphere Information Server console需求 系统必须安装Microsoft .NET Framework 1.1 Service Pack 1 注意:系统必须从Microsoft .NET Framework 1.1 升级到Microsoft .NET Framework 1.1 Service Pack 1 ●IBM InfoSphere Information Server Web console 需求 Microsoft Internet Explorer 6 Service Pack 2 Microsoft Internet Explorer 7 Mozilla Firefox 2 ●Engine tier software requirements(Windows) InfoSphere QualityStage and InfoSphere DataStage需要C++ SDK 编译器:Microsoft Visual C++ .NET 2003 Microsoft Visual Studio 2005 Professional Edition C++ Microsoft Visual Studio .NET 2005 Express? Edition C++ ●硬件需求 Memroy需求 DataStage Client至少需要2G 内存 DataStage Server 至少需要4G 内存 Disk 需求: 1.3 GB for WebSphere Application Server 500 MB for DB2 1.4 GB for the InfoSphere Information Server components 2.5 GB for the metadata repository database

DataStage8.7安装文档

DataStage 8.7安装文档 官方参考: https://www.doczj.com/doc/df5713505.html,/infocenter/iisinfsv/v8r7/index.jsp?topic=%2Fcom.ibm.swg.im.iis.producti zation.iisinfsv.install.doc%2Ftopics%2Fwsisinst_topinstall.html 1.安装前配置 操作系统:Redhat Enterprise Linux 6.2 64位 注:由于是在Linux下安装DataStage,最好熟悉基本的linux命令的使用。 1、需要安装以下rpm包,32位和64位都需要。 glibc-2.12-1.47 libXp-1.0.0-15.1 libXau-1.0.5-1 libXext-1.1-3 libX11-1.3-2 libxcb-1.5-1 nss-softokn-freebl-3.12.9-11 libXmu-1.0.5-1 libXtst-1.0.99.2-3 libXft-2.1.13-4.1 freetype-2.3.11-6 fontconfig-2.8.0-3 libgcc-4.4.6-3 libstdc++-4.4.6-3. compat-libstdc++-33-3.2.3-69 2、关闭防火墙 关闭:service iptables stop 查看状态:service iptables status 3、禁用selinux 编辑/etc/selinux/config文件,修改SELINUX=disabled,修改后需要重启操作系统。 查看状态:sestatus 4、创建用户 groupadd -g 502 daspgrp groupadd -g 503 db2fgrp groupadd -g 504 db2igrp groupadd -g 505 dstgrp useradd -d /home/dasusr1 -m -g 502 -u 701 dasusr1 useradd -d /home/db2fenc1 -m -g 503 -u 702 db2fenc1 useradd -d /home/db2inst1 -m -g 504 -u 703 db2inst1 useradd -d /home/dsadm -m -g 505 -u 704 dsadm

datastage教程

1、【第一章】datastage简介与工作原理 1、简介 数据中心(数据仓库)中的数据来自于多种业务数据源,这些数据源可能是不同硬件平台上,使用不同的操作系统,数据模型也相差很远,因而数据以不同的方式存在不同的数据库中。如何获取并向数据中心(数据仓库)加载这些数据量大、种类多的数据,已成为建立数据中心(数据仓库)所面临的一个关键问题。针对目前系统的数据来源复杂,而且分析应用尚未成型的现状,专业的数据抽取、转换和装载工具DataStage是最好的选择。 Websphere DataStage 是一套专门对多种操作数据源的数据抽取、转换和维护过程进行简化和自动化,并将其输入数据集市或数据中心(数据仓库)目标数据库的集成工具。 DataStage 能够处理多种数据源的数据,包括主机系统的大型数据库、开放系统上的关系数据库和普通的文件系统等,以下列出它所能处理的主要 数据源: 大型主机系统数据库:IMS,DB2,ADABAS,VSAM 等 开放系统的关系数据库:Informix,Oracle,Sybase,DB2,Microsoft SQL Server等ERP 系统:SAP/R3,PeopleSoft系统等,普通文件和复杂文件系统,FTP 文件系统,XML等IIS,Netscape,Apache等Web服务器系统Outlook等Email系统。 DataStage 可以从多个不同的业务系统中,从多个平台的数据源中抽取数据,完成转换和清洗,装载到各种系统里面。其中每步都可以在图形化工具里完成,同样可以灵活的被外部系统调度,提供专门的设计工具来设计转换规则和清洗规则等,实现了增量抽取、任务调度等多种复杂而实用的功能。其中简单的数据转换可以通过在界面上拖拉操作和调用一些DataStage 预定义转换函数来实现,复杂转换可以通过编写脚本或结合其他语言的扩展来实现,并且DataStage 提供调试环境,可以极大提高开发和调试抽取、转换程序的效率。

DataStage8.5安装手册1.0

DataStage 8.5安装文档 1.服务器安装 系统要求 前提要求,DataStage的服务器推荐使用一台全新的干净服务器,全新安装的SUSE Linux Enterprise Server 11,或者Redhat AS 5.4,没有预装任何DB2和WAS软件。 解压安装介质 安装步骤如下: DataStage 8.5的安装介质为InfoSvr_v8.5_Linux64.tar.gz,解压后得到目录is-suite。 在is-suite下执行./setup,安装程序将启动一个Web服务,URL为http://机器IP:8080/ISInstall 选择安装语言 在浏览器(IE 或者Fixforx)中打开上述URL,例如,待安装的服务器IP为192.168.5.170,则在浏览器栏输入http://192.168.5.170:8080/ISInstall。缺省安装界面语言为英文(English),也可以选择中文。本文档以英文为安装语言。

进入安装界面后,第一个界面选择Next按钮。 License接受 第二个界面如下图所示选择接受License协议(I accept the terms in the license agreement),

然后下一步(Next)。

防火墙禁用 第三个界面直接下一步(Next) 系统要求检查 第四步安装程序将进行第一次系统检查,检查是否符合安装需求。如果都正常,则下一步(Next),否则根据检查结果对系统进行配置调整。

选择安装目录 第五步选择安装目标目录,缺省目录为/opt/IBM/InformationServer,一般使用缺省目录,然后下一步(Next)

Datastage 配置操作步骤

1部署软件环境 DB服务器:22.4.8.7 DB客户端:22.4.8.10,22.4.8.11,22.4.8.12,22.4.8.13 DataStage主服务器:22.4.8.11 DataStage备份服务器:22.4.8.13 DataStage节点:22.5.8.10,22.5.8.12 2创建用户 为每台机器创建dstage组和dsadm用户 运行smit命令,启动管理界面 在安装机器上创建dstage组 设置ADMINISTRATIVE USER 选项为true 设置GID设为300 创建用户dsadm 设置主属为dstage, 设置ADMINISTRATIVE USER 选项为true; 设置UID设为300; 设置Primary GROUP,Group SET,ADMINISTRATIVE GROUPS:均为dstage; 设置Soft FILE size [-1] (无限制) 设置Hard FILE size [-1] (无限制) 3修改系统参数 调整每台机器的最大进程数 查看用户进程最大数目: lsattr -El sys0|grep maxuproc 如: 修改用户进程最大数目: 注意:要调整每个Datastage节点的最大进程数 用root用户登陆,键入即可。 chdev -l sys0 -a maxuproc=4096 4 DataStage安装 4.1上传DataStage介质到服务器上 将介质拷贝到终端上,然后ftp到22.4.8.11和22.4.8.13上,将介质放在/Ascential.media 目录下,并赋上所有权限:chmod -R 777 /Ascential.media 4.2安装DataStage 4.2.1进入/Ascential.media,运行sh ./install.sh –admin dsadm,中间安装过程请参考

DataStage安装手册

3.ETL环境部署 3.1 安装DataStage 3.1.1 Server安装 3.1.1.1 创建用户及组 AIX 运行smit命令,启动管理界面 在安装机器上创建dstage组, ADMINISTRATIVE USER 选项为true, 创建用户dsadm,主属为dstage ,ADMINISTRATIVE USER 选项为true;Primary GROUP,Group SET,ADMINISTRATIVE GROUPS:均为dstage HP Unix 运行sam命令,启动管理界面 在安装机器上创建dstage组 创建用户dsadm,主属为dstage组 3.1.1.3 系统参数设置 1)检查Server端paging space的空间,对于CPU数量少于20个的机器,最好整个 Paging Space为500M×CPU数,如机器配置了8个CPU,则推荐至少需要配置 4GB的Paging Space空间。 2)检查核心参数,不符合要求则针对操作系统进行如下调整(AIX使用smit,HP Unix使用sam):

3)运行lsattr -E -l sys0 | grep maxuproc,检查参数Maximum number of PROCESSES allowed per user,设置Datastage允许运行的最大进程数,推荐设置到较大的 值,如:8192。 4)运行lsuser –f dsadm,检查如下参数:fsize,data,stack,rss。推荐将这些参数 设置为unlimit 3.1.1.4 Server安装步骤 确保以超级用户root进入系统(非常重要) 如果是硬盘包,则执行命令:gunzip 2105-ds-75a-aix.tar.Z 进入解压目录Tar xvf 2105-ds-75a-aix.tar 进入/解压环境/Ascential.media/aix目录 如果是光盘包,则执行命令:Mount /cdrom 进入/cdrom目录 1)AIX操作系统执行/Ascential.media/install.sh –admin dsadm. 2);HP Unix执行./INSTALL.SH\;1。会出现下图所示:每步安装都附有图片,图片上方 为本图注释: 3)检测用户是否为root,输入y 继续

DataStage使用手册

Ascential DataStage Director Guide Version 7.5.1 Part No. 00D-007DS751 December 2004

his document, and the software described or referenced in it, are confidential and proprietary to Ascential Software Corporation ("Ascential"). They are provided under, and are subject to, the terms and conditions of a license agreement between Ascential and the licensee, and may not be transferred, disclosed, or otherwise provided to third parties, unless otherwise permitted by that agreement. No portion of this publication may be reproduced, stored in a retrieval system, or transmitted, in any form or by any means, electronic, mechanical, photocopying, recording, or otherwise, without the prior written permission of Ascential. The specifications and other information contained in this document for some purposes may not be complete, current, or correct, and are subject to change without notice. NO REPRESENTATION OR OTHER AFFIRMATION OF FACT CONTAINED IN THIS DOCUMENT, INCLUDING WITHOUT LIMITATION STATEMENTS REGARDING CAPACITY, PERFORMANCE, OR SUITABILITY FOR USE OF PRODUCTS OR SOFTWARE DESCRIBED HEREIN, SHALL BE DEEMED TO BE A WARRANTY BY ASCENTIAL FOR ANY PURPOSE OR GIVE RISE TO ANY LIABILITY OF ASCENTIAL WHATSOEVER. THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT OF THIRD PARTY RIGHTS. IN NO EVENT SHALL ASCENTIAL BE LIABLE FOR ANY CLAIM, OR ANY SPECIAL INDIRECT OR CONSEQUENTIAL DAMAGES, OR ANY DAMAGES WHATSOEVER RESULTING FROM LOSS OF USE, DATA OR PROFITS, WHETHER IN AN ACTION OF CONTRACT, NEGLIGENCE OR OTHER TORTIOUS ACTION, ARISING OUT OF OR IN CONNECTION WITH THE USE OR PERFORMANCE OF THIS SOFTWARE. If you are acquiring this software on behalf of the U.S. government, the Government shall have only "Restricted Rights" in the software and related documentation as defined in the Federal Acquisition Regulations (FARs) in Clause 52.227.19 (c) (2). If you are acquiring the software on behalf of the Department of Defense, the software shall be classified as "Commercial Computer Software" and the Government shall have only "Restricted Rights" as defined in Clause 252.227-7013 (c) (1) of DFARs. This product or the use thereof may be covered by or is licensed under one or more of the following issued patents: US6604110, US5727158, US5909681, US5995980, US6272449, US6289474, US6311265, US6330008, US6347310, US6415286; Australian Patent No. 704678; Canadian Patent No. 2205660; European Patent No. 799450; Japanese Patent No. 11500247. ? 2005 Ascential Software Corporation. All rights reserved. DataStage?, EasyLogic?, EasyPath?, Enterprise Data Quality Management?, Iterations?, Matchware?, Mercator?, MetaBroker?, Application Integration, Simplified?, Ascential?, Ascential AuditStage?, Ascential DataStage?, Ascential ProfileStage?, Ascential QualityStage?, Ascential Enterprise Integration Suite?, Ascential Real-time Integration Services?, Ascential MetaStage?, and Ascential RTI? are trademarks of Ascential Software Corporation or its affiliates and may be registered in the United States or other jurisdictions. The software delivered to Licensee may contain third-party software code. See Legal Notices (legalnotices.pdf) for more information.

DataStage安装手册

目录 1安装及配置2 1.1ETL工具D ATA S TAGE的安装配置过程2 1.1.1系统环境2 1.1.2用户与组2 1.1.3修改系统参数2 1.1.4编译器的安装3 1.1.5 DS软件安装步骤3 1.1.6停止与启动服务18 1.1.7 DataStage配置20

1安装及配置 1.1ETL工具DataStage的安装配置过程 1.1.1系统环境 1.1.2用户与组 创建组dstage 和用户dsadm,并且将dstage作为dsadm的默认组,同时将dsadm添加进dba组。 注意:需要给数据库用户对oracle sys.dba_extents表的select权限。 1.1.3修改系统参数 将dsadm的参数修改成下列值: fsize -1 (无限制) data 至少128 MB (262144 512-byte blocks) stack 至少32 MB (65536 512-byte blocks) 查看当前设置:ulimit -a 设置最大进程数,建议为4096 当前设置:lsattr -E -l sys0 | grep maxuproc

以上修改需要root权限用户,在安装DS之前请确认好,避免多次使用root用户。 1.1.4编译器的安装 开发完的所有JOB都需要进行编译,需要安装C++编译器,最低版本要求见系统环境要求部分。 1.1.5DS软件安装步骤 Datastage安装过程需要用到root用户,确保以超级用户root进入系统。 如果是硬盘包,则先解压缩包,执行命令:$ tar xvf C915JNA.tar,再进入解压后的出现的文件夹 Ascential.media目录 如果是光盘包,则执行命令: $ mount /cdrom ,再进入 /cdrom目录。 运行命令: $ ./install.sh -admin dsadm 进入图1所示画面:

Linux版DataStage服务器端安装手册

ETL工具DataStage(Linux版)安装手册 ?创建用户dsadm和用户组dstage 以root用户执行以下命令: groupadd dstage useradd -g dstage -d /ds/dsadm/ dsadm chown -R dsadm.dstage /ds/dsadm/ passwd dsadm ?设置用户dsadm的环境变量 用dsadm用户登入,在用户dsadm根目录下,执行命令$vi .bash_profile,修改环境变量如下: # .bash_profile . ./Ascential/DataStage/DSEngine/dsenv . /home/db2inst1/sqllib/db2profile # Get the aliases and functions if [ -f ~/.bashrc ]; then . ~/.bashrc fi # User specific environment and startup programs PATH=$PATH:$HOME/bin export PATH unset USERNAME export DSHOME=/ds/dsadm/Ascential/DataStage/DSEngine export LANG=zh_CN.GBK export APT_ORCHHOME=/ds/dsadm/Ascential/DstaStage/PXEngine export PATH=$PATH:$HOME/bin:$APT_ORCHHOME/bin:$DSHOME/bin export LD_LIBRARY_PATH=$ LD_LIBRARY_PATH:$DSHOME/lib #为了确保dsjob命令行能够正确运行 #可将/ds/dsadm/Ascential/DataStage/DSEngine/lib/libvmdsapi.so拷贝到/lib/下 #或export LD_LIBRARY_PATH=$ LD_LIBRARY_PATH:$DSHOME/lib ?Server安装步骤 Datastage安装过程需要用到root用户,确保以超级用户root进入系统(非常重要) 如果是硬盘包,则先解压缩包,gunzip *.tar.giz ,然后执行命令:tar xvf C915JNA.tar,再进入解压后的出现的文件夹Ascential.media目录 如果是光盘包,则执行命令:Mount /cdrom ,再进入/cdrom目录. (1) 执行./install.sh –admin root

DataStage 8.7安装报错处理

1.安装datastage8.7客户端遇到这个奇葩的问题datastage8.7 Microsoft Windows 脚本编制引擎必须正常工作。 2.在自己本机重新建一个例如:xxx.reg注册表文件,里面的内容为: Windows Registry Editor version 5.00 [HKEY_CLASSES_ROOT\.js] @="jsfile" [HKEY_CLASSES_ROOT\.js\PersistentHandler] @="{5e941d80-bf96-11cd-b579-08002b30bfeb}" [HKEY_CLASSES_ROOT\JSFile] "FriendlyTypeName"=hex(2):40,00,25,00,53,00,79,00,73,00,74,00,65,00,6d,00,52,\ 00,6f,00,6f,00,74,00,25,00,5c,00,53,00,79,00,73,00,74,00,65,00,6d,00,33,00,\ 32,00,5c,00,77,00,73,00,68,00,65,00,78,00,74,00,2e,00,64,00,6c,00,6c,00,2c,\ 00,2d,00,34,00,38,00,30,00,34,00,00,00 [HKEY_CLASSES_ROOT\JSFile\ScriptEngine] @="JScript" [HKEY_CLASSES_ROOT\JSFile\ScriptHostEncode] @="{85131630-480C-11D2-B1F9-00C04F86C324}" [HKEY_CLASSES_ROOT\JSFile\Shell] @="Open" [HKEY_CLASSES_ROOT\JSFile\Shell\Open\command] @=hex(2):25,00,53,00,79,00,73,00,74,00,65,00,6d,00,52,00,6f,00,6f,00,74,00,25,\ 00,5c,00,53,00,79,00,73,00,74,00,65,00,6d,00,33,00,32,00,5c,00,57,00,53,00,\

datastage安装详细文档

Datastage Server安装步骤 Datastage安装过程需要用到root用户,确保以超级用户root进入系统(非常重要) 1.准备 #创建组 $groupadd dstage #创建用户 $useradd -g dstage dsadm #修改密码 $passwd dsadm #创建安装目录 $mkdir -p /home/ap/dsadm #添加目录到用户组 $chown -R dsadm:dstage /home/ap/dsadm/ 2.解压 #如果是硬盘包,则先解压缩包,执行命令: $tar xvf C915JNA.tar 再进入解压后的出现的文件夹Ascential.media目录 如果是光盘包,则执行命令:Mount /cdrom ,再进入/cdrom目录. 3.安装 (1) 执行./install.sh –admin root (2) 验证dsadm用户环境变量设置,确认输入y,回车:

(3) 安装向导画面,输入n,回车 (4) 版本更新信息,输入n,回车

(5) license agreement,输入y,回车 (6) 选择安装文件临时存放目录,此目录必须存在,dsadm用户要有存取权限,且目录必须为空并且有600M的空间,输入c 可以改变临时目录,使用默认临时目录输入n,回车

(7) 输入serial number,CPU count,expiration date,enterprise edition code, server code ,回车。MVS edition code不用输入,注意日期的格式。 (8) 确认serial number,CPU count,expiration date,enterprise edition code, server code是否正确,正确,输入n,回车

InfoSer Datastage V8.1安装文档

Information Server 8.1.0安装文档 目录 Information Server 8.1.0安装文档 (1) 备注说明: (1) 安装前系统要求: (2) 1)WAS安装包需求: (2) 2)Infomation Server安装包需求: (3) 3)Linux 内核参数最低需求 (3) 4)HP-UX 内核参数最底要求 (4) 5)产品和必须安装这些产品的层。 (4) 安装步骤: (5) 1.系统环境: (5) 2.修改内核参数,安装必要必定包: (5) 3.安装WAS和两个升级补丁包 (6) 参数配置: (29) 1.配置dsenv文件 (29) 2.配置ODBC参数 (30) 3.配置DS编译器变量 (32) 4.配置dsadm用户的.bash_profile文件 (32) IIS服务启动和停止: (32) 1.服务停止 (32) 3.服务启动 (33) 备注说明: 1.要在Linux? 和UNIX? 上复用现有的 DB2 安装,必须使用 DB2 故障监视组件(需要 在 /etc/inittab 文件中输入故障监视器(db2fmcd)的路径)。 db2fmcd 命令必须指向实际的可执行文件位置,例如: fmc:234:respawn:/u1/IBM/db2/V9/bin/db2fmcd #DB2 Fault Monitor Coordinator 2.需要的C++编译器和运行时库: 对于64位HP-UX 11i v2 on Intel Itaium 6.16 acc: HP C/aC++ B3910B A.06.14 32位和64位Red Hat Enterprise Linux 5 Advanced Platform GCC 4.1.2 对于HP-UX 11.x和10.x,用下面的命令确定版本: what /opt/CC/bin/CC

Redhat 6 安装DataStage9.1

Redhat 6 安装InformationServer9.1 1Redhat6 环境准备 1.1需要在缺省安装上补充安装包: yum install libXp.x86_64 yum install compat-libstdc++-33.x86_64 yum install glibc.i686 yum install libgcc.i686 yum installgcc-c++.x86_64 1.2修改内核参数 编辑文件:/etc/sysctl.conf,添加一行 kernel.sem = 250 128000 32 1024 保存后sysctl -p使修改生效。 1.3关闭防火墙 serviceiptables stop chkconfigiptables off 1.4关闭SELinux 编辑文件:/etc/selinux/config # This file controls the state of SELinux on the system. # SELINUX= can take one of these three values: # enforcing - SELinux security policy is enforced. # permissive - SELinux prints warnings instead of enforcing. # disabled - No SELinux policy is loaded. #SELINUX=enforcing SELINUX=disabled # SELINUXTYPE= can take one of these two values: # targeted - Targeted processes are protected,

相关主题
相关文档 最新文档