CentOS6.5 安装Hbase0.98(虚拟机环境)
- 格式:docx
- 大小:87.79 KB
- 文档页数:12
1.1软件环境1)CentOS6.5x642)Jdk1.7x643)Hadoop2.6.2x644)Hbase-0.98.95)Zookeeper-3.4.61.2集群环境集群中包括 3个节点:1个Master, 2个Slave2安装前的准备2.1下载JDK2.2下载Hadoop2.3下载Zookeeper2.4下载Hbase3开始安装3.1 CentOS安装配置1)安装3台CentOS6.5x64 (使用BasicServer模式,其他使用默认配置,安装过程略)2)Master.Hadoop 配置a)配置网络修改为:保存,退出(esc+:wq+enter ),使配置生效b) 配置主机名修改为:c)配置 hosts修改为:修改为:在最后增加如下内容以上调整,需要重启系统才能生效g) 配置用户新建hadoop用户和组,设置 hadoop用户密码id_rsa.pub ,默认存储在"/home/hadoop/.ssh" 目录下。
a) 把id_rsa.pub 追加到授权的 key 里面去b) 修改.ssh 目录的权限以及 authorized_keys 的权限c) 用root 用户登录服务器修改SSH 配置文件"/etc/ssh/sshd_config"的下列内容3) Slavel.Hadoop 、Slavel.Hadoop 配置及用户密码等等操作3.2无密码登陆配置1)配置Master 无密码登录所有 Slave a)使用 hadoop 用户登陆 Master.Hadoopb)把公钥复制所有的 Slave 机器上。
使用下面的命令格式进行复制公钥2) 配置Slave 无密码登录Mastera) 使用hadoop 用户登陆Slaveb)把公钥复制Master 机器上。
使用下面的命令格式进行复制公钥id_rsa 和相同的方式配置 Slavel 和Slave2的IP 地址,主机名和 hosts 文件,新建hadoop 用户和组c) 在Master机器上将公钥追加到authorized_keys 中3.3安装JDK所有的机器上都要安装 JDK ,先在Master服务器安装,然后其他服务器按照步骤重复进行即可。
Hadoop学习之Hbase安装安装需注意:1、安装环境:Centos6.6 64位,2G内存(在虚拟机下安装Centos系统)。
Jdk版本:1.7.0_71Hadoop版本:2.5.1Hbase版本:0.98.72、Hadoop环境:节点名用户名IP地址master gznc 192.168.1.100slave01 gznc 192.168.1.101slave02 gznc 192.168.1.1021、把下载好的Hbase安转包上传或者移动到主节点的gznc目录下。
2、解压Hbase的安装包,命令如下:3、配置Hbase环境变量(备注:slave01(节点)也要配置),命令如下:在末尾添加以下代码:4、使环境变量生效,命令如下:5、进入Hbase安装目录下的conf文件夹,命令如下:6、配置hbase-env.sh文件,命令如下:找到JAVA_HOME和HBASE_CLASSPATH和HBASE_MANAGES_ZK配置选项,先把前面的“#”号去掉,在“=”号后添加以下代码:jdk安转目录:Hbase安装路径:使用自带的zookeeper的管理集群:7、配置hbase-site.xml文件,命令如下:添加以下代码:8、配置节点列表:删掉localhost,更改为自己的电脑的节点的主机名(hostname),有几个节点就填写几个,一个节点名独占一行(备注:如果不知道主机名,可以打开终端输入“hostname”,就可以查看)。
如下图:9、在主节点(master)为从节点(slave01)配置HMaster的备用节点,backup-masters文件本身不存在,命令执行完成后会自动生成:添加以下类容:10、把主节点hbase文件复制到从节点,命令如下:11、启动hbase,输入jps查看各个进程的情况,命令如下:启动hbase:查看主节点进程:从节点进程:12、进入hbase(在hbase安装目录的bin目录下输入“habse shell”):13、输入“help”查看hbase提供的功能:14、查看hbaseRegionserver运行状态,命令如下:15、查看当前用户:16、Enjoy!如需转载,请注明出处。
CentOS 6.5 安装说明书CenOS 6.5系统安装1.系统版本:CentOS release 6.5 (Final) 64位2.选择“Install system with basic video driver”,点击Enter。
如图:3.选择“Skip”,跳过检查。
按“Tab”键,可以在“Ok”“Skip”之间切换。
点击Enter。
如图4.点击“next”。
如图:5.选择简体中文,点击“Next”。
如图:6.选择“美国英语”,点击“下一步”。
如图:7.选择“基础存储设备”,点击“下一步”。
如图:8.选择“是忽略所有数据”,点击“下一步”,如图:9.输入主机名,例如“Hadoop1”,点击“下一步”,如图注意:在大数据集群中,要把其中一台主机名命名为master,其他机器主机名命名为slave1、slave2、、、10.选择时区,点击“下一步”,如图11.输入根账号密码,点击“下一步”,如图12.如出现下图,请根据提示选择,如图13.选择“创建自定义布局”,点击“下一步”,如图。
14.以下是创建分区。
sda为硬盘名称。
如果系统自动对硬盘进行了分区、布局,请先删除,然后按照以下流程重新创建。
创建/boot分区,大小为200M。
创建swap分区,配置为2048M即可。
创建/分区,把系统磁盘剩余空间全部分给/ 分区。
15.分完区之后点击下一步:会有下面提示,点击格式化,然后点击下一步。
点击“将修改写入磁盘”,格式化完成后点击“下一步”。
16.请确保“引导装载程序”安装在正确的硬盘上。
点击“更换设备”可以选择“引导装载程序”的安装位置。
如下图:图表 1修改步骤:点击“更换设备”后,刚开始看到的或许是这样,请选择“主引导记录(MBR)”:进入“BIOS驱动器顺序”,第一BIOS驱动器选择硬盘这时“主引导记录MBR”变成了下面:点击确定“更换设备”完成。
17.选择“现在自定义”,点击“下一步”。
18.左栏里有“Web服务”,“可扩展文件系统支持”,“基本系统”,“应用程序”,“开发”,“弹性存储”,“数据库”,“服务器”,“桌面”,“系统管理”,“虚拟化”,“语言支持”,“负载平衡器”,“高可用性”14个选项,请按照以下进行选择:(1)“Web服务”,“可扩展文件系统支持”,“基本系统”,“应用程序”,“开发”,“弹性存储”,“服务器”,“桌面”,“系统管理”,“虚拟化”,“负载平衡器”,“高可用性”这几项,分别在其对应的右栏里面的每一项右键点击“选择所有的可选软件包”。
CentOS6.5的安装详解(图⽂详解)第⼀步点击"Install or upgrade an existing system"
第⼆步磁盘硬件检测界⾯,⼀般都正常,不需检测,选择"skip",没必要在这⼀步浪费⼏分钟时间
第三步发现当地安装媒介界⾯,Enter
第四步进⼊CentOS6.5引导界⾯,点击“Next”
第五步安装语⾔选择界⾯,最好是选择"English(English)",点击“Next”。
当然你也可以选择中⽂,但是,博主我,强烈建议你选英⽂,既然你搞⼤数据,就要顺应⼤众
第六步键盘语⾔选择界⾯,选择“U.S English”,点击“Next”
第七步安装哪种设备类型选择界⾯,选择“Basic Storage Devices”,点击“Next”
第⼋步存储设备警告界⾯,选择“Yes,discard any data”,点击"Next"。
这个好⽐我们在安装windows⼀样,安装系统把C盘给格式化。
第九步
第⼗步选择对应的时区,这⾥我们选择上海,系统时间选择UTC
第⼗⼀步输⼊root密码,两次⼀样,然后next下⼀步
第⼗⼆步选择创建⾃定义布局,你也可以使⽤所有空间,这个看需求
然后创建分区
再建⽴⼀个swap分区,建议⼤⼩是你主机内存1.5倍,然后OK,next
最后建⽴根分区 / 使⽤磁盘剩余所有空间
分区完毕后,检查看下是否按我们的要求分配,选择next
将要对分区进⾏格式化操作,选择格式化
警告我们所有数据将会丢失,选择将改写写⼊磁盘
开始安装系统
最后,系统安装结束,reboot重启,登录系统。
hbase搭建与使用HBase是建立在Hadoop上的分布式、可伸缩、高可靠的列式数据库,可以存储大量的结构化和半结构化数据。
下面是搭建和使用HBase的一般步骤:1. 安装Hadoop:首先要确保已经安装并运行了Hadoop集群,因为HBase是基于Hadoop的,需要依赖Hadoop的分布式文件系统(HDFS)和分布式计算框架(MapReduce)。
2. 下载和解压HBase:从HBase官方网站下载最新版本的HBase,并解压到预定的目录。
3. 配置HBase:编辑HBase的配置文件(hbase-site.xml)和Hadoop的配置文件(core-site.xml、hdfs-site.xml),设置相关参数,如ZooKeeper的地址、HDFS路径等。
4. 启动HBase:在HBase所在的节点上启动HBase服务,可使用start-hbase.sh脚本。
5. 使用HBase Shell:HBase提供了一个交互式的命令行工具,称为HBase Shell,可以使用它来创建表、插入数据、查询数据等。
通过运行hbase shell命令启动HBase Shell,然后使用HBase Shell提供的命令进行操作。
6. 编写HBase客户端程序:如果需要以编程的方式操作HBase,可以使用HBase提供的Java API编写客户端程序。
首先需要将hbase-client和hbase-common等相关的jar包添加到Java项目中,然后通过编写Java代码实现对HBase的操作,如创建表、插入数据、查询数据等。
以上是搭建和使用HBase的一般步骤,具体操作过程可能会因具体的环境和需求而有所不同。
在使用HBase时需要了解HBase的数据模型、数据存储方式等基本概念,熟悉HBase提供的API和工具,以便更好地进行开发和管理。
云计算实验——Hadoop和Hbase的安装使用作者:中国云计算论坛云计算_龙竹(aiken)E-mail:brucexu1988@ 欢迎访问中国云计算:1 准备工作1.1 安装VMware(网上可以下载,按照步骤一步一步地安装即可);1.2 安装SSH secure client1.3 在虚拟机中启动打开Hadoop虚拟机文件,修改IP地址和Hostname,具体方法如下:(1)在Linux操作系统启动后,右击鼠标,打开终端“open terminal”;(2)配置ip地址,输入指令:“gedit /etc/sysconfig/network-scripts/ifcfg-eth0”;(3)按“回车键”,进入配置Ip的窗口。
(4)修改BOOTPRO,“BOOTPRO=static”;(5)设置ip地址:“IPADDR=192.168.10.152”(根据自己的需要配置);(6)保存(ctrl+s),退出;(7)配置Hostname,输入指令“gedit /etc/sysconfig/network”;(8)按“回车键”,进入配置Hostname的窗口。
(9)将Hostname修改为“sev152”(根据自己的需要配置);(10)保存(ctrl+s),退出;(11)重启:输入指令“reboot”。
1.4检查IP和Hostname是否配置完好(1)重新启动后,右击鼠标,打开终端“open terminal”;(2)检查IP ,输入指令:“ip addr show”;如图1.1所示显示,ip地址已经被修改。
图1 .1 IP地址检查(3)检查Hostname ,使用指令“ping sev152”(sev152是刚刚自己配置的主机名);如图1.2所示,主机名修改无误。
图1.2 检查Hostname(4)按“ctrl+c”快捷键,退出“ping”;2 安装SSH打开SSH Secure Shell,点击“Quick Connect”,会跳出如图2.1所示的窗口,在Host Name 中输入刚刚所配置的Ip地址:“192.168.10.152”,然后单击“connect”。
HBase的基本使用流程1. 概述HBase是一个开源的、分布式的、面向列的非关系型数据库,基于Hadoop架构。
它主要用于高可靠性、高性能的大规模数据存储和实时读写操作。
本文将介绍HBase的基本使用流程。
2. 安装和配置2.1 安装HBase1.下载HBase安装包;2.解压安装包到指定目录;3.配置环境变量。
2.2 配置HBase1.打开HBase的配置文件hbase-site.xml;2.配置HBase相关参数,如hbase.rootdir、hbase.zookeeper.quorum等;3.保存配置文件。
3. 启动和停止HBase3.1 启动HBase1.打开命令行窗口,切换到HBase安装目录的bin目录下;2.执行命令start-hbase.sh(Linux)或start-hbase.bat(Windows)启动HBase。
3.2 停止HBase1.打开命令行窗口,切换到HBase安装目录的bin目录下;2.执行命令stop-hbase.sh(Linux)或stop-hbase.bat(Windows)停止HBase。
4. HBase基本概念4.1 表(Table)表是HBase中最基本的数据存储单元,类似于关系型数据库中的表。
每个表由多行组成,每行又包含多个列。
4.2 列族(Column Family)列族是表中列的分组,所有的列必须隶属于一个列族。
列族需要在创建表的时候指定,一旦创建后不能修改。
4.3 行(Row)行是表中的数据记录,每一行由行键(Row Key)唯一标识。
4.4 列(Column)和单元格(Cell)列是行中的属性,由列族和列修饰符唯一标识。
单元格是行和列的交叉点,用于存储具体的数据。
5. HBase基本操作5.1 创建表1.打开HBase Shell;2.执行命令create 'table_name', 'column_family'创建一张表。
linuxxshelljdkhadoop(环境搭建)虚拟机安装(⼤数据搭建环境)【hadoop是2.6.5版本xshell是6版本jdk是1.8.0.131 虚拟机是CentOS-6.9-x86_64-bin-DVD1.iso vmware10】1.创建虚拟机第⼀步:在VMware中创建⼀台新的虚拟机。
如图2.2所⽰。
图2.2第⼆步:选择“⾃定义安装”,然后单击“下⼀步”按钮,如图2.3所⽰。
图2.3第三步:单击“下⼀步” 按钮,如图2.4所⽰。
图2.4第四步:选择“稍后安装操作系统”,然后单击“下⼀步” 按钮,如图2.5所⽰。
图2.5第五步:客户机操作系统选择Linux,版本选择“CentOS 64位”,然后单击“下⼀步” 按钮,如图2.6所⽰。
图2.6第六步:在这⾥可以选择“修改虚拟机名称”和“虚拟机存储的物理地址”,如图2.7所⽰。
图2.7第七步:根据本机电脑情况给Linux虚拟机分配“处理器个数”和每个处理器的“核⼼数量”。
注意不能超过⾃⼰电脑的核数,推荐处理数量为1,每个处理器的核⼼数量为1,如图2.8所⽰。
图2.8第⼋步:给Linux虚拟机分配内存。
分配的内存⼤⼩不能超过⾃⼰本机的内存⼤⼩,多台运⾏的虚拟机的内存总合不能超过⾃⼰本机的内存⼤⼩,如图2.9所⽰。
图2.9第九步:使⽤NAT⽅式为客户机操作系统提供主机IP地址访问主机拨号或外部以太⽹⽹络连接,如图2.10所⽰。
图2.10第⼗步:选择“SCSI控制器为LSI Logic(L)”,然后单击“下⼀步” 按钮,如图2.11所⽰。
图2.11第⼗⼀步:选择“虚拟磁盘类型为SCSI(S)”,然后单击“下⼀步” 按钮,如图2.12所⽰。
图2.12第⼗⼆步:选择“创建新虚拟磁盘”,然后单击“下⼀步” 按钮,如图2.13所⽰。
图2.13第⼗三步:根据本机的磁盘⼤⼩给Linux虚拟机分配磁盘,并选择“将虚拟机磁盘拆分为多个⽂件”,然后单击“下⼀步”按钮,如图2.14所⽰。
Hbase的安装(详细步骤)Hbase的安装(详细步骤)1、前提条件1、得安装的有hdfs系统2、得安装zookeeper集群2、准备安装包下载安装包并上传到node01服务器安装包下载地址:将安装包上传到node01服务器/hc/softwares路径下,并进⾏解压[hadoop@node01 ~]$ cd /hc/soft/[hadoop@node01 soft]$ tar -zxvf hbase-2.2.6-bin.tar.gz -C /hc/install/3、修改Hbase配置⽂件3.1、修改hbase-env.sh⽂件修改⽂件[hadoop@node01 softwares]$ cd /hc/install/hbase-2.2.6/conf[hadoop@node01 conf]$ vim hbase-env.sh修改如下两项内容,值如下export JAVA_HOME=/hc/install/jdk1.8.0_141export HBASE_MANAGES_ZK=false3.2、修改hbase-site.xml⽂件修改⽂件[hadoop@node01 conf]$ vim hbase-site.xml内容如下<configuration><!-- 指定hbase在HDFS上存储的路径 --><property><name>hbase.rootdir</name><value>hdfs://node01:8020/hbase</value></property><!-- 指定hbase是否分布式运⾏ --><property><name>hbase.cluster.distributed</name><value>true</value></property><!-- 指定zookeeper的地址,多个⽤“,”分割 --><property><name>hbase.zookeeper.quorum</name><value>node01,node02,node03:2181</value></property><!--指定hbase管理页⾯--><property><name>.port</name><value>60010</value></property><!-- 在分布式的情况下⼀定要设置,不然容易出现Hmaster起不来的情况 --><property><name>hbase.unsafe.stream.capability.enforce</name><value>false</value></property></configuration>3.3、修改regionservers⽂件修改⽂件[hadoop@node01 conf]$ vim regionservers指定HBase集群的从节点;原内容清空,添加如下三⾏node01node02node033.4、修改back-masters⽂件创建back-masters配置⽂件,⾥边包含备份HMaster节点的主机名,每个机器独占⼀⾏,实现HMaster的⾼可⽤[hadoop@node01 conf]$ vim backup-masters将node02作为备份的HMaster节点,问价内容如下node024、分发安装包将 node01上的HBase安装包,拷贝到其他机器上[hadoop@node01 conf]$ cd /hc/install[hadoop@node01 install]$ scp -r hbase-2.2.6/ node02:/hc/install[hadoop@node01 install]$ scp -r hbase-2.2.6/ node03:/hc/install5、创建软连接注意:三台机器均做如下操作因为HBase集群需要读取hadoop的core-site.xml、hdfs-site.xml的配置⽂件信息,所以我们三台机器都要执⾏以下命令,在相应的⽬录创建这两个配置⽂件的软连接ln -s /hc/install/hadoop-3.1.4/etc/hadoop/core-site.xml /hc/install/hbase-2.2.6/conf/core-site.xmlln -s /hc/install/hadoop-3.1.4/etc/hadoop/hdfs-site.xml /hc/install/hbase-2.2.6/conf/hdfs-site.xml执⾏完后,出现如下效果,以node01为例6、添加HBase环境变量注意:三台机器均执⾏以下命令,添加环境变量sudo vim /etc/profile⽂件末尾添加如下内容export HBASE_HOME=/hc/install/hbase-2.2.6export PATH=$PATH:$HBASE_HOME/bin重新编译/etc/profile,让环境变量⽣效source /etc/profile7、HBase的启动与停⽌需要提前启动HDFS及ZooKeeper集群如果没开启hdfs,请在node01运⾏start-dfs.sh命令如果没开启zookeeper,请在3个节点分别运⾏zkServer.sh start命令第⼀台机器node01(HBase主节点)执⾏以下命令,启动HBase集群[hadoop@node01 ~]$ start-hbase.sh启动完后,jps查看HBase相关进程node01、node02上有进程HMaster、HRegionServernode03上有进程HRegionServer警告提⽰:HBase启动的时候会产⽣⼀个警告,这是因为jdk7与jdk8的问题导致的,如果linux服务器安装jdk8就会产⽣这样的⼀个警告可以注释掉所有机器的hbase-env.sh当中的“HBASE_MASTER_OPTS”和“HBASE_REGIONSERVER_OPTS”配置来解决这个问题。
Hbase的安装与基本操作简介:1安装 HBase本节介绍HBase的安装⽅法,包括下载安装⽂件、配置环境变量、添加⽤户权限等。
1.1 下载安装⽂件HBase是Hadoop⽣态系统中的⼀个组件,但是,Hadoop安装以后,本⾝并不包含HBase,因此,需要单独安装HBase。
hbase-1.1.5-bin.tar.gz假设已经下载了HBase安装⽂件hbase-1.1.5-bin.tar.gz,被放到了Linux系统的“/home/hadoop/下载/”⽬录下。
进⼊下载⽬录,需要对⽂件进⾏解压。
按照Linux系统使⽤的默认规范,⽤户安装的软件⼀般都是存放在“/usr/local/”⽬录下。
$ cd ~/下载$ sudo tar -zxf ~/下载/hbase-1.1.5-bin.tar.gz -C /usr/local将解压的⽂件名hbase-1.1.5改为hbase,以⽅便使⽤,命令如下:$ sudo mv /usr/local/hbase-1.1.5 /usr/local/hbase1.2 配置环境变量将HBase安装⽬录下的bin⽬录(即/usr/local/hbase/bin)添加到系统的PATH环境变量中,这样,每次启动HBase时就不需要到“/usr/local/hbase”⽬录下执⾏启动命令,⽅便HBase的使⽤。
请使⽤vim编辑器打开“~/.bashrc”⽂件,命令如下:$ vim ~/.bashrc⽂件以后,添加添加PATH路径时只需要加上":路径"即可,下⾯这条命令是添加了三条路径,配置的是hadoop和hbasd的打开.bashrc⽂件以后,启动路径export PATH=$PATH:/usr/local/hadoop/sbin:/usr/local/hadoop/bin:/usr/local/hbase/bin添加后,执⾏如下命令使设置⽣效:$ source ~/.bashrc1.3 添加⽤户权限需要为当前登录Linux系统的hadoop⽤户(我的⽤户是msq)添加访问HBase⽬录的权限,将HBase安装⽬录下的所有⽂件的所有者改为msq,命令如下:$ cd /usr/local$ sudo chown -R msq ./hbase1.4 查看HBase版本信息可以通过如下命令查看HBase版本信息,以确认HBase已经安装成功:$ /usr/local/hbase/bin/hbase version2 HBase的配置HBase有三种运⾏模式,即单机模式、伪分布式模式和分布式模式:单机模式:采⽤本地⽂件系统存储数据;伪分布式模式:采⽤伪分布式模式的HDFS存储数据;分布式模式:采⽤分布式模式的HDFS存储数据。
CentOS6.5 安装Hbase0.98一、查看CentOS版本[root@hadoop14 ~]# lsb_release -aLSBVersion: :base-4.0-amd64:base-4.0-noarch:core-4.0-amd64:core-4.0-noarch:graphics-4.0-am d64:graphics-4.0-noarch:printing-4.0-amd64:printing-4.0-noarchDistributor ID: CentOSDescription: CentOS release 6.5 (Final)Release: 6.5Codename: Final[root@hadoop14 ~]#二、查看Hbase版本[root@hadoop14 hbase]# hbase shell2016-04-26 15:32:27,405 INFO [main] Configuration.deprecation: hadoop.native.lib is deprecated. Instead, use io.native.lib.availableHBase Shell; enter 'help<RETURN>' for list of supported commands.Type "exit<RETURN>" to leave the HBase ShellVersion 0.98.18-hadoop2, rc26c554ab3a8deecf890873bf6b1b4c90fa001dc, Fri Mar 18 19:19:59 PDT 2016三、查看Hadoop版本[root@hadoop14 bin]# hadoop versionHadoop 2.5.2Subversionhttps:///repos/asf/hadoop.git -r cc72e9b000545b86b75a61f4835eb86d57bfafc0Compiled by jenkins on 2014-11-14T23:45ZCompiled with protoc 2.5.0From source with checksum df7537a4faa4658983d397abf4514320This command was run using /home/app/programs/hadoop/share/hadoop/common/hadoop-common-2.5.2.jar四、查看JDK版本[root@hadoop14 bin]# java -versionjava version "1.7.0_51"Java(TM) SE Runtime Environment (build 1.7.0_51-b13)Java HotSpot(TM) 64-Bit Server VM (build 24.51-b03, mixed mode) 五、版本兼容性六、参考文档/image-text/install/2014/1121/4158.html /thread-7781-1-1.html/indestiny/blog/191537/CentosServer/cluster/2015/0409/5125.html七、查看glibc最大支持版本[root@hadoop14 hadoop]# strings /lib64/libc.so.6 |grep GLIBC_ GLIBC_2.2.5GLIBC_2.2.6GLIBC_2.3GLIBC_2.3.2GLIBC_2.3.3GLIBC_2.3.4GLIBC_2.4GLIBC_2.5GLIBC_2.6GLIBC_2.7GLIBC_2.8GLIBC_2.9GLIBC_2.10GLIBC_2.11GLIBC_2.12GLIBC_PRIVATE[root@hadoop14 hadoop]# ll /lib64/libc.so.6lrwxrwxrwx. 1 root root 12 Jun 15 2015 /lib64/libc.so.6 -> libc-2.12.so八、安装系统(1)配置网络,修改主机名,设置可以上网/etc/hosts/etc/sysconfig/network(2)关闭防火墙(3)安装vmtools九、SSH免密码登录因为Hadoop需要通过SSH登录到各个节点进行操作,我用的是root用户,每台服务器都生成公钥,再合并到authorized_keys。
(1)修改sshd_config配置CentOS默认没有启动ssh无密登录,去掉/etc/ssh/sshd_config其中2行的注释,每台服务器都要设置。
#RSAAuthentication yes#PubkeyAuthentication yes(2)生成key输入命令,ssh-keygen -t rsa,生成key,都不输入密码,一直回车,/root就会生成.ssh 文件夹,每台服务器都要设置。
(3)合并key合并公钥到authorized_keys文件,在Master服务器,进入/root/.ssh目录,通过SSH命令合并。
cat id_rsa.pub>> authorized_keysssh root@192.168.0.183 cat ~/.ssh/id_rsa.pub>> authorized_keysssh root@192.168.0.184 cat ~/.ssh/id_rsa.pub>> authorized_keys(4)拷贝key把Master服务器的authorized_keys、known_hosts复制到Slave服务器的/root/.ssh目录。
scp authorized_keys known_hosts root@192.168.0.183:/root/.sshscp authorized_keys known_hosts root@192.168.0.184:/root/.ssh(5)检证免密登陆ssh root@192.168.0.183、ssh root@192.168.0.184就不需要输入密码了。
十、安装JDK1.7过程(1)创建安装目录mkdir /usr/lib/jdk1.7(2)上传压缩包至master并解压tar -zxvf jdk-7u51-linux-x64.gz -C /usr/lib/jdk1.7(3)移动JDK至相应目录移动jdk1.7.0_51中的文件到/usr/lib/jdk1.7,并删除jdk1.7.0_51文件夹cp -rf /usr/lib/jdk1.7/jdk1.7.0_51/* /usr/lib/jdk1.7/rm -rf /usr/lib/jdk1.7/jdk1.7.0_51/(3)编辑 /etc/profile 文件export JAVA_HOME=/usr/lib/jdk1.7export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jarexport PATH=$JAVA_HOME/bin:$PATH(4)使配置生效source /etc/profile同步至其它节点:scp -r /etc/profile slave1:/etc/profilescp -r /etc/profile slave2:/etc/profilessh root@slave1 source /etc/profilessh root@slave2 source /etc/profile(5)检查安装版本java -versionssh root@slave1 java -versionssh root@slave2 java -version(6)同步JDK至其它节点在另两台节点上分别执行,或是直接拷贝目录。
ssh root@slave1 mkdir /usr/lib/jdk1.7ssh root@slave2 mkdir /usr/lib/jdk1.7scp -r /usr/lib/jdk1.7/ slave1:/usr/lib/scp -r /usr/lib/jdk1.7/ slave2:/usr/lib/十一、安装配置HADOOP(1)下载hadoop安装包将下载“hadoop-2.5.2.tar.gz”文件上传至到/home/hadoop目录下(2)解压压缩包tar -xzvf hadoop-2.5.2.tar.gz(3)在/home/hadoop目录下创建目录创建数据存放的文件夹,tmp、hdfs、hdfs/data、hdfs/name mkdir -p tmp hdfs/name hdfs/data(4)添加到环境变量将hbase添加到环境变量/etc/profile中export HADOOP_HOME=/home/hadoopexport PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATHscp -r /etc/profile slave1:/etc/profilescp -r /etc/profile slave2:/etc/profilessh root@slave1 source /etc/profilessh root@slave2 source /etc/profile(5)配置core-site.xmlvi /home/hadoop/etc/hadoop/core-site.xml<configuration><property><name>fs.defaultFS</name><value>hdfs://192.168.0.182:9000</value></property><property><name>hadoop.tmp.dir</name><value>file:/home/hadoop/tmp</value></property><property><name>io.file.buffer.size</name><value>131702</value></property>(6)配置hdfs-site.xmlvi /home/hadoop/etc/hadoop/hdfs-site.xml<configuration><property><name>.dir</name><value>file:/home/hadoop/hdfs/name</value></property><property><name>dfs.datanode.data.dir</name><value>file:/home/hadoop/hdfs/data</value></property><property><name>dfs.replication</name><value>2</value></property><property><name>node.secondary.http-address</name> <value>192.168.0.182:9001</value></property><property><name>dfs.webhdfs.enabled</name><value>true</value></property></configuration>(7)配置mapred-site.xmlvi /home/hadoop/etc/hadoop/mapred-site.xml<configuration><property><name></name><value>yarn</value></property><property><name>mapreduce.jobhistory.address</name><value>192.168.0.182:10020</value></property><property><name>mapreduce.jobhistory.webapp.address</name> <value>192.168.0.182:19888</value></property>(8)配置yarn-site.xmlvi /home/hadoop/etc/hadoop/yarn-site.xml<configuration><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value></property><property><name>yarn.resourcemanager.address</name><value>192.168.0.182:8032</value></property><property><name>yarn.resourcemanager.scheduler.address</name><value>192.168.0.182:8030</value></property><property><name>yarn.resourcemanager.resource-tracker.address</name><value>192.168.0.182:8031</value></property><property><name>yarn.resourcemanager.admin.address</name><value>192.168.0.182:8033</value></property><property><name>yarn.resourcemanager.webapp.address</name><value>192.168.0.182:8088</value></property><property><name>yarn.nodemanager.resource.memory-mb</name><value>768</value></property></configuration>(9)配置hadoop-env.sh、yarn-env.sh的JAVA_HOMEvi /home/hadoop/etc/hadoop/hadoop-env.shvi /home/hadoop/etc/hadoop/yarn-env.shhadoop-env.sh、yarn-env.sh的JAVA_HOME,不设置的话,启动不了。