大数据平台kerberos安装部署文档
- 格式:docx
- 大小:831.25 KB
- 文档页数:23
Kafka Kerberos 认证使用流程一、简介Kafka 是一个高吞吐量的分布式发布订阅消息系统,其使用的 KDC (Key Distribution Center) 是 Kerberos 认证系统的一部分。
Kerberos 是一个网络认证协议,用于安全地认证用户和服务。
Kafka Kerberos 认证能够确保在 Kafka 集裙中传输的数据得到安全保障,防止未经授权的用户获取敏感数据。
本文将介绍 Kafka Kerberos 认证的使用流程。
二、前提条件在进行 Kafka Kerberos 认证之前,需要满足一些前提条件:1. 安装 Kafka 集裙2. 配置 Kerberos 认证3. 已经拥有 Kerberos 主体和密钥tab文件三、 Kafka Kerberos 认证配置1. 生成 Kafka 配置文件需要生成 Kafka 配置文件,其中包括了 Kerberos 认证的相关配置。
在配置文件中,需要指定 Kerberos 的服务主体和 keytab 文件的位置等信息。
```security.protocol=SASL_PL本人NTEXTsasl.mechanism=GSSAPI=kafkasasl.jaas.config.sun.security.auth.module.Krb5LoginModule required \useKeyTab=true \keyTab="/path/to/your/keytab/file" \principal="your_kafka_principalYOUR_REALM";```2. 启动 Kafka 服务在配置完成后,启动 Kafka 服务,使其能够使用 Kerberos 认证进行安全通信。
3. 配置 Producer 和 Consumer接下来,需要配置 Kafka Producer 和 Consumer 来使用 Kerberos认证,以确保安全通信。
HCIA-Big Data Certification V3.0(CN)Mock Exam1.(判断题)传统数据库先有数据后有模式。
A. FalseB. True2.(单选题)在鲲鹏生态系统中,以下哪款操作系统是华为社区开源版?A. CentOSB. 中标麒麟C. OpenEulerD. Ubuntu3. (多选题) 以下哪些选项是华为云MRS服务低成本的体现?A. 存算分离B.按需扩减容C. 临时集群D. 集群自动弹性伸缩4.(判断题)HDSF文件系统不可以存储大量小文件。
A. FalseB. True5.(单选题)HDSF文件系统中哪个模块用来存储元数据?A. Data nodeB. Name nodeC. ZookeeperD. Client6. (多选题) ZooKeeper客户端常用命令包括哪些?A. 创建节点B. 获取节点数据C. 列出子节点D. 删除节点7.(判断题)因为HDFS有多副本机制,所有不存在单点故障。
A. FalseB. True8.(判断题)元数据持久化过程其实质是将数据从内存落盘到磁盘。
A. FalseB. True9.(判断题)Hive适用于低延时的场景,比如联机事务处理。
A. FalseB. True10.(单选题)Hive定义一个自定义函数类时,需要继承以下哪个类?A. FunctionRegistryB. UDFC. MapReduce11. (多选题) Hive支持以下哪些执行引擎?A. MapReduceB. TezC. SparkD. Loader12.(判断题)HBase是一个高可靠性、面向行、可伸缩的分布式存储系统。
A. FalseB. True13.(单选题)HBase的架构不包括哪个功能组件?A. ClientB. HMasterC. HRegionServerD. ZooKeeper14. (多选题) HBase的特点有哪些?A. HBase是一个分布式,基于列式存储的数据库B. HBase适合存储半结构化和非结构化的数据C. HBase是主从架构,HRegionServer为主节点,HMaster为从节点D. HBase中为NULL的数据不会被存储15. (多选题) MapReduce具有以下哪些特点?A. 函数式编程B. 良好扩展性C. 高容错D. 实时计算16.(单选题)Yarn中负责整个集群的资源管理和任务调度的功能模块是哪一个?A.App MasterB. NodeManagerC. Resource ManagerD. Container17.(判断题)Map阶段的Partition、Sort、Combine、Spill四个步骤缺一不可。
hadoop考试试题您的姓名: [填空题] *_________________________________1.Spark是用一下哪种编程语言实现的?() [单选题] *A.CB.C++;C.JAVA;(正确答案)D.Scala2.FusionInsight Manager对服务的管理操作,下面说法错误的是?() [单选题] *A.可对服务进行启停重启操作;B.可以添加和卸载服务;C.可设置不常用的服务隐藏或显示;(正确答案)D.可以查看服务的当前状态;3.FusionInsight HD集群升级,一下描述正确的是?() *A.升级过程中不可以操作准备OMS倒换;(正确答案)B.集群内所有主机的root账户密码要保持一致;(正确答案)C.保持网络通畅,避免网络问题导致升级异常;(正确答案)D.观察期不能做扩容;(正确答案)4.FusionInsight HD Loader 在创建作业时,连接器(Connector)有什么用?() [单选题] *A.确定有哪些转化步骤;B.提供优化参数,提高数据导出性能;C.配置数据如何与外部数据进行连接;(正确答案)D.配置数据如何与内部数据进行连接;5.下列哪个HDFS命令可用于检测数据块的完整性?() [单选题] *A.hdfs fsck /;(正确答案)B.hdfs fsck / -delete;C.hdfs dfsadmin -report;D.hdfs balancer -threshold 1;6.YARN中设置队列QueueA最大使用资源里,需要配置哪个参数?() [单选题] *A.yarn scheduler capacty root QueueA user-limit-factor;B.yarn scheduler capacty root QueueA minimum-user-limit-percent;C.yarn scheduler capacty root QueueA state;D.yarn scheduler capacty root QueueA maximum-capacity;(正确答案)7.Flume的数据流可以根据headers的信息发送到不同的channel中。
大数据处理平台Spark的安装和配置方法大数据处理平台Spark是一种快速且可扩展的数据处理框架,具有分布式计算、高速数据处理和灵活性等优势。
为了使用Spark进行大规模数据处理和分析,我们首先需要正确安装和配置Spark。
本文将介绍Spark的安装和配置方法。
一、环境准备在开始安装Spark之前,需要确保我们的系统符合以下要求:1. Java环境:Spark是基于Java开发的,因此需要先安装Java环境。
建议使用Java 8版本。
2. 内存要求:Spark需要一定的内存资源来运行,具体要求取决于你的数据规模和运行需求。
一般情况下,建议至少有8GB的内存。
二、下载Spark1. 打开Spark官方网站(不提供链接,请自行搜索)并选择合适的Spark版本下载。
通常情况下,你应该选择最新的稳定版。
2. 下载完成后,将Spark解压到指定的目录。
三、配置Spark1. 打开Spark的安装目录,找到conf文件夹,在该文件夹中有一份名为spark-defaults.conf.template的示例配置文件。
我们需要将其复制并重命名为spark-defaults.conf,然后修改该文件以配置Spark。
2. 打开spark-defaults.conf文件,你会看到一些示例配置项。
按照需求修改或添加以下配置项:- spark.master:指定Spark的主节点地址,如local表示使用本地模式,提交到集群时需修改为集群地址。
- spark.executor.memory:指定每个Spark执行器的内存大小,默认为1g。
- spark.driver.memory:指定Spark驱动程序的内存大小,默认为1g。
3. 如果需要配置其他参数,可以参考Spark官方文档中的配置指南(不提供链接,请自行搜索)。
4. 保存并退出spark-defaults.conf文件。
四、启动Spark1. 打开命令行终端,进入Spark的安装目录。
kerberos 密钥表文件的绝对路径【最新版】目录1.Kerberos 简介2.Kerberos 密钥表文件的作用3.获取 Kerberos 密钥表文件的绝对路径的方法4.注意事项正文1.Kerberos 简介Kerberos(Key Distribution Center,密钥分发中心)是一种网络身份验证协议,主要用于在非安全网络环境中安全地进行身份验证。
它通过使用加密技术在客户端和服务器之间传输用户凭据,从而确保数据传输的安全性。
Kerberos 在计算机网络中广泛应用,特别是在校园网和企业内部网络中。
2.Kerberos 密钥表文件的作用Kerberos 密钥表文件是用于存储 Kerberos 客户端与 Kerberos 服务器之间通信所需的加密密钥和认证信息。
当客户端需要连接到服务器时,它会向 Kerberos 服务器发送请求,请求获取一个用于验证服务器身份的票证。
服务器收到请求后,会根据客户端提供的身份信息,查询Kerberos 密钥表文件,生成相应的票证并发送给客户端。
客户端收到票证后,可验证服务器的身份,并确保后续通信的安全性。
3.获取 Kerberos 密钥表文件的绝对路径的方法要获取 Kerberos 密钥表文件的绝对路径,可以按照以下步骤进行操作:(1)首先,需要确定您所使用的操作系统。
不同的操作系统,其Kerberos 密钥表文件的路径可能不同。
(2)对于 Windows 操作系统,Kerberos 密钥表文件通常位于以下路径:```C:WindowsSystem32configsystemprofileScriptsKerberos tickets ```请注意,这里的路径可能会因系统版本和安装方式而有所不同。
(3)对于 Linux 操作系统,Kerberos 密钥表文件通常位于以下路径:```/etc/krb5/k票根目录```同样,请注意,这里的路径可能会因发行版和安装方式而有所不同。
hadoop 考试一试题您的姓名:[填空题 ] *_________________________________1.Spark 是用一下哪一种编程语言实现的?[单项选择题 ] *()A.CB.C++;C.JAVA; (正确答案 )D.Scala2.FusionInsight Manager对服务的管理操作,下边说法错误的选项是?()[ 单项选择题 ] *A.可对服务进行启停重启操作;B.能够增添和卸载服务 ;C.可设置不常用的服务隐蔽或显示;(正确答案 )D.能够查察服务的目前状态;3.FusionInsight HD 集群升级,一下描绘正确的选项是?()*A. 升级过程中不可以够操作准备OMS 倒换 ;(正确答案 )B.集群内全部主机的root 账户密码要保持一致 ;(正确答案 )C.保持网络畅达,防止网络问题致使升级异样;(正确答案 )D.察看期不可以做扩容 ;(正确答案 )4.FusionInsight HD Loader 在创立作业时,连结器(Connector)有什么用?()[单项选择题 ] *A. 确立有哪些转变步骤 ;B.供给优化参数,提高数据导出性能;C.配置数据怎样与外面数据进行连结;(正确答案 )D.配置数据怎样与内部数据进行连结;5.以下哪个 HDFS 命令可用于检测数据块的完好性?()[ 单项选择题 ] *A.hdfs fsck /;(正确答案 )B.hdfs fsck / -delete;C.hdfs dfsadmin -report;D.hdfs balancer -threshold 1;6.YARN 中设置行列 QueueA 最大使用资源里,需要配置哪个参数?()[单项选择题 ]*A.yarn scheduler capacty root QueueA user-limit-factor;B.yarn scheduler capacty root QueueA minimum-user-limit-percent;C.yarn scheduler capacty root QueueA state;D.yarn scheduler capacty root QueueA maximum-capacity;(正确答案 )7.Flume 的数据流能够依据headers的信息发送到不一样的channel中。
1、YARN YARN 服务中,如果要给队列服务中,如果要给队列服务中,如果要给队列 QueueA QueueA QueueA 设置容量为设置容量为设置容量为 30% 30% 30%,应该配置那个参数?,应该配置那个参数?A 、er-limit-factorB 、yarn.scheduler.capacity.root.QueueA.minimum-user-limit-percentC 、yarn.scheduler.capacity.root.QueueA.capacityD 、yarn.scheduler.capacity.root.QueueA.state2、判断题:、判断题:FusionInsight FusionInsight FusionInsight 集群组网设计中,二层组网指集群内二层交换,集集群组网设计中,二层组网指集群内二层交换,集 群节点在一个子网里,适用节点数小于群节点在一个子网里,适用节点数小于 200 200 200 的集群场景的集群场景3、FusionInsigh HD FusionInsigh HD 系统中系统中系统中 HDFS HDFS HDFS 默认默认默认 Block Size Block Size Block Size 是多少?是多少?A 、32MB 、64MC 、128MD 、256M4、FusionInsight Manager FusionInsight Manager 会定时备份哪些数据?(多选)会定时备份哪些数据?(多选)A 、NameNodeB 、LDAPC 、OMSD 、DBService5、某高校的、某高校的 FusionInsight HD FusionInsight HD FusionInsight HD 集群中有集群中有集群中有 230 230 230 个节点,在进行集群规划时,下个节点,在进行集群规划时,下 列哪些进程应该部署在数据节点上?(多选)A 、DataNodeB 、NameNodeC 、NodeManagerD 、RegionServerE DBServerF 、SolrServer6、判断题:、判断题:Spark Spark Spark 应用运行时,如果某个应用运行时,如果某个应用运行时,如果某个 task task task 运行失败则导致整个运行失败则导致整个运行失败则导致整个 App App App 运行运行 失败7Hbase Hbase 的数据文件的数据文件的数据文件 HFile HFile HFile 中一个中一个中一个 KeyValue KeyValue KeyValue 格式包含哪些信息?(多选)格式包含哪些信息?(多选) A、Key B 、ValueC 、TimeStampD 、Key Type8、安装、安装 FusionInsight HD FusionInsight HD FusionInsight HD 的的 Streaming Streaming 组件时,组件时,组件时,Nimbus Nimbus Nimbus 角色要求安装几个节角色要求安装几个节 点?A 、1B 、2C 、3D 、49、FusionInsight HD FusionInsight HD 产品中,关于产品中,关于产品中,关于 Kafka Kafka Kafka 组件说法正确的有?(多选)组件说法正确的有?(多选)A 、删除、删除 Topic Topic Topic 时,必须确保时,必须确保时,必须确保 Kafka Kafka Kafka 的服务配置的服务配置的服务配置 deleted.topic.enable deleted.topic.enable deleted.topic.enable 配置为配置为 tureB 、Kafka Kafka 安装及运行日志保存路径为安装及运行日志保存路径为安装及运行日志保存路径为/srv/Bigdata/kafka/ /srv/Bigdata/kafka/C 、ZooKeeper ZooKeeper 服务不可用会导致服务不可用会导致服务不可用会导致 Kafka Kafka Kafka 服务不可用服务不可用D 、必须使用、必须使用 admin admin admin 用户或者用户或者用户或者 kafkaadmin kafkaadmin kafkaadmin 组用户进行创建组用户进行创建组用户进行创建 Topic Topic1010、客户、客户、客户 IT IT IT 系统中系统中系统中 FusionInsight HD FusionInsight HD FusionInsight HD 集群有集群有集群有 150 150 150 个节点,每个节点个节点,每个节点个节点,每个节点 12 12 12 块磁盘块磁盘 (不做(不做 RAID RAID RAID,不包括,不包括,不包括 OS OS OS 盘)盘),每块磁盘大小,每块磁盘大小 1T 1T 1T,只安装,只安装,只安装 HDFS HDFS HDFS,按照默认配置,按照默认配置 最大可存储多少数据?A 、1764TBB 、1800TBC 、600TB1111、、FusionInsight HD FusionInsight HD 中中 Loader Loader 实例必须与哪个实例部署在一起?实例必须与哪个实例部署在一起?A 、DataNodeB 、RegionServerC 、ResourceManagerD 、NodeManager1212、、FusionInsight HD FusionInsight HD 系统中,关于系统中,关于系统中,关于 Solr Solr Solr 索引的存储部署策略,以下说法正索引的存储部署策略,以下说法正 确的有?(多选)A 、利用、利用 HDFS HDFS HDFS 数据存储可靠性和易于扩容的特点,优先选择索引存储于数据存储可靠性和易于扩容的特点,优先选择索引存储于数据存储可靠性和易于扩容的特点,优先选择索引存储于 HDFS HDFSB 、不论、不论 Solr Solr Solr 索引存储在索引存储在索引存储在 HDFS HDFS HDFS 上还是存储在本地磁盘,在同一个节点上都必须上还是存储在本地磁盘,在同一个节点上都必须 要部署要部署 5 5 5 个个 Solr Solr 实例,根据实例,根据实例,根据 IP IP IP 和不同的端口号来区分不同的和不同的端口号来区分不同的和不同的端口号来区分不同的 Solr Solr Solr 实例实例C 、当对实时索引录入速度要求较高时,可选择索引存放于本地磁盘D 、当索引数据存放在、当索引数据存放在 HDFS HDFS HDFS 上时,建议上时,建议上时,建议 SolrServer SolrServer SolrServer 实例与实例与实例与 DataNode DataNode DataNode 实例部署实例部署 在同一个节点上在同一个节点上1313、判断题:、判断题:、判断题:Solr Solr Solr 可以对结构化,半结构化、非结构化数据建立索引,并提供可以对结构化,半结构化、非结构化数据建立索引,并提供 全文检索的能力1414、下列哪些、下列哪些、下列哪些 OS OS OS 版本被推荐可以用来搭建版本被推荐可以用来搭建版本被推荐可以用来搭建 FusionInsight V1R2C60 FusionInsight V1R2C60 FusionInsight V1R2C60 集群?(多集群?(多 选)A 、SUSE 11 SP1/SP2/SP3 for AMD64 & Intel64B 、CentOS-6.6C 、RedHat-6.4-x86_64D 、RedHat-6.5-x86_64E 、RedHat-6.7-x86_64F 、Ubuntu6.31515、以下选项中,对华为、以下选项中,对华为、以下选项中,对华为 FusionInsight HD FusionInsight HD FusionInsight HD 系统中备用系统中备用系统中备用 NameNode NameNode NameNode 的作用描述的作用描述 准确的有?(多选)A 、主、主 NameNode NameNode NameNode 的热备的热备B 、备、备 NameNode NameNode NameNode 对内存没有要求对内存没有要求对内存没有要求C 、帮助主、帮助主 NameNode NameNode NameNode 合并编辑日志,减少主合并编辑日志,减少主合并编辑日志,减少主 NameNode NameNode NameNode 启动时间启动时间D 、备、备 NameNode NameNode NameNode 应与主应与主应与主 NameNode NameNode NameNode 部署到一个节点部署到一个节点1616、以下哪些应用场景产生的数据是以非结构化数据为主?(多选)、以下哪些应用场景产生的数据是以非结构化数据为主?(多选)A 、CRM CRM 客户关系管理业务客户关系管理业务B 、地震测绘分析业务C 、淘宝在线支付业务D 、金融票据影像业务1717、、FusionInsight HD FusionInsight HD 支持哪些日志下载方式?(多选)支持哪些日志下载方式?(多选)A 、下载已安装的所有组件日志B 、下载单个组件某个模块的日志C 、下载指定主机的日志D 、下载指定时间段的日志1818、以下关于、以下关于、以下关于 Hadoop Hadoop Hadoop 分布式文件系统分布式文件系统分布式文件系统 HDFS HDFS HDFS 联邦描述正确的有?(多选)联邦描述正确的有?(多选)A 、一个、一个 Namespace Namespace Namespace 使用一个使用一个使用一个 block pool block pool block pool 管理数据块管理数据块B 、一个、一个 Namespace Namespace Namespace 可使用多个可使用多个可使用多个 block pool block pool block pool 管理数据块管理数据块C 、每个、每个 block pool block pool block pool 的磁盘空间是物理共享的,逻辑空间是隔离的的磁盘空间是物理共享的,逻辑空间是隔离的D 、支持、支持 NameNode/Namespace NameNode/Namespace NameNode/Namespace 水平扩展水平扩展1919、基于、基于、基于 Hadoop Hadoop Hadoop 开源大数据平台主要提供了针对数据分布式计算和存储能力,开源大数据平台主要提供了针对数据分布式计算和存储能力, 如下属于分布式存储组件的有?(多选)A 、MRB 、SparkD 、Hbase2020、、FusionInsight HD Loader FusionInsight HD Loader 可以将可以将可以将 HDFS HDFS HDFS 数据导出到以下哪些目标端?(多数据导出到以下哪些目标端?(多 选)A 、SFTP SFTP 服务器服务器B 、FTP FTP 服务器服务器C 、Oracle Oracle 数据库数据库D 、DB2 DB2 数据库数据库2121、关于大数据的主要特征理解和描述正确的有?(多选)、关于大数据的主要特征理解和描述正确的有?(多选)A 、来源多,格式多B 、增长速度快,处理速度快C 、存储量大,计算量大D 、数据的价值密度较低2222、、FusionInsight Hadoop FusionInsight Hadoop 集群中,在某个节点上通过集群中,在某个节点上通过集群中,在某个节点上通过 df-hT df-hT df-hT 查询,看到的分查询,看到的分 区包含以下几个:/var/log Raid 1/srv/BigData Raid 1/srv/BigData/hadoop/data5 Non-Raid/Raid0/srv/BigData/solr/solrserver3 Non-Raid/Raid0/srv/BigData/dbdata_om Raid 1这些分区所对应磁盘最佳这些分区所对应磁盘最佳 Raid Raid Raid 级别的规划组合是?级别的规划组合是?A 、Raid0Raid0、、Raid1Raid1、、Raid0Raid0、、Non-Raid Non-Raid、、Raid-1B 、Raid1Raid1、、Raid1Raid1、、Non-Raid Non-Raid、、Non-Raid Non-Raid、、Raid1C 、Raid0Raid0、、Raid0Raid0、、Raid0Raid0、、Raid0D 、Non-Raid Non-Raid、、Non-Raid Non-Raid、、Non-Raid Non-Raid、、Non-Raid Non-Raid、、Raid12323、、Hadoop Hadoop 平台中,要查看平台中,要查看平台中,要查看 YARN YARN YARN 服务中一个服务中一个服务中一个 application application application 的信息,通常需要的信息,通常需要 使用什么命令?A 、containerB 、applicationattemptC 、jarD 、application2424、、FusionInsight HD FusionInsight HD 安装前准备,包括哪些步骤?(多选)安装前准备,包括哪些步骤?(多选)A 、完成硬件安装B 、完成节点主机操作系统安装C 、准备工具和软件。
大数据平台-kerberos安装部署文档————————————————————————————————作者: ————————————————————————————————日期:ﻩ1.环境准备1.1.操作系统本次安装部署要求在操作系统为CentOS release 6.5(Final)的版本下进行部署,所以在安装部署kerberos之前请先确保操作系统为以上版本,并且集群中各机器已做时钟同步。
本次安装部署以csdm-hadoop-04作为主kdc服务器,以csdm-hadoop-05作为从kdc服务器,以csdm-hadoop-03作为客户端。
一般不建议在服务器上再安装其他应用程序,比如hadoop。
但为了节省资源本次安装在这三台机器均已安装hadoop相关软件。
1.2.创建操作用户创建操作系统hdfs、yarn、mapred用户,并使其归属于hadoop用户组: adduserhdfs -gHadoopadduseryarn -g Hadoopadduser mapred-gHadoop1.3.配置hosts文件为各台机器修改/etc/hosts文件,将真实ip与主机名对应配置,服务端与客户端均需配置,形如:(不能存在127.0.0.1的配置,否则hadoop进行kerberos验证时将会出错)1.4.关闭防火墙执行以下命令关闭防火墙:service iptables stop出现以下界面表示关闭成功1.5.注册服务与端口的对应在/etc/service文件最后增加以下信息,以便后续使用:ﻩkrb5_prop754/tcp # Kerberos slave propagation2.安装配置Kerberos2.1.安装rpm包➢以root用户登录并创建目录存放安装包:mkdir /var/kerberos➢上传安装包文件到创建的目录,包括krb5-libs-1.10.3-10.el6_4.6.x86_64.rpm、krb5-server-1.10.3-10.el6_4.6.x86_64.rpm(客户端可不安装)、krb5-workstation-1.10.3-10.el6_4.6.x86_64.rpm➢执行安装命令:rpm -ivh krb5-libs-1.10.3-10.el6_4.6.x86_64.rpmrpm -ivh krb5-server-1.10.3-10.el6_4.6.x86_64.rpm【客户端可不安装】ﻫrpm -ivh krb5-workstation-1.10.3-10.el6_4.6.x86_64.rpm➢查看上述包是否已安装成功:rpm –qa krb5*若出现以下情况则代表安装成功。
ﻩﻩ2.2.配置主KDC服务器2.2.1.设置全局环境变量需要以root身份登录系统在/etc/profile末尾增加配置文件的全局环境变量:exportKRB5_CONFIG=/etc/krb5.confexport KRB5_KDC_PRO保存后并执行source /etc/profile 使之生效。
2.2.2.配置krb5.conf执行vi编辑/etc/krb5.conf,内容如下:[libdefaults]default_realm =ERICSSON.COMdns_lookup_realm=falsedns_lookup_kdc =falseticket_lifetime = 24hrenew_lifetime =7dforwardable=true[realms]ERICSSON.COM = {kdc = csdm-hadoop-04kdc =csdm-hadoop-05admin_server =csdm-hadoop-04}[domain_realm].ericsson.com=ERICSericsson.com=ERICSS2.2.3.配置kdc.conf执行vi编辑/var/kerberos/krb5kdc/kdc.conf,内容如下:[kdcdefaults]Kdc_ports=750,88[realms]ERICSS ={kadmind_port = 749max_life=10h 0m0smax_renewable_life=7d 0h0m 0sdatabase_name= /var/kerberos/krb5kdc/principaladmin_keytab=/var/kerberos /krb5kdc/kadm5.keytabacl_ /krb5kdc/kadm5.aclkey_stash_ /krb5kdc/.k5.ERICSSO}[logging]default =kdc=admin_server=集群机器如果开启selinux,请在机器上执行restorecon -R-v /etc/krb5.conf2.2.4.生成数据库在主KDC服务器上执行以下命令创建数据库,在执行的过程中会提示输入密码和确认密码,两次输入相同的密码即可:kdb5_utilcreate -r ericsson.com–s等待片刻后在提示输入密码界面输入密码后会出现以下界面:2.2.5.创建管理用户运行管理入口命令:kadmin.local在提示符下执行以下命令addprinckadmin/addprinc kadmin/会提示输入密码,输入两次一样的密码后会提示成功创建。
ﻫ将主体添加至密钥文件中ktadd -k /var/kerberos/krb5kdc/kadm5.keytabkadmin/adminktadd -k/var/kerberos/krb5kdc/kadm5.keytabkadmin/changepw2.2.6.启动krb5kdc 和kadmind服务执行以下命令启动krb5kdc和kadmind服务:krb5kdc startkadmind出现以下界面表示启动成功2.3.配置从KDC服务器2.3.1.为从kdc服务器创建创建授权票证每一个kdc服务器都需要一个host票证,用于在迁移数据库数据市在各kdc服务器之间进行交互验证。
注意,创建host票据需要在主kdc服务器上执行而不是在从kdc服务器。
在csdm-hadoop-04上执行以下命令创建票证:kadminaddprinc –randkey host/csdm-hadoop-addprinc –randkey host/csdm-hadoop-ktaddhost/csdm-hadoop-2.3.2.设置从kdc服务器的配置文件将主kdc服务器中的配置文件(kdc.conf、krb5.conf、.k5.ERICSSON.C OM、kadm5.acl)复制到从kdc服务器上相应的目录中;在从kdc服务器的/var/Kerberos/krb5kdc的目录下创建kpropd.acl文件并增加以下信息:host/csdm-hadoop-host/csdm-hadoop-2.4.复制数据库数据到KDC从服务器➢在主服务器上创建数据库的dump文件kdb5_util dump /var/kerberos/krb5kdc/slave_datatrans➢在从服务器上执行数据迁移kprop-f/var/Kerberos/krb5kdc/slave_datatrans csdm-hadoop-05定时将主KDC服务器上的数据库数据,更新到从KDC服务器上由于KDC不提供数据库数据的同步服务功能,因此需要使用脚本或者手工将主KDC服务器上的数据同步到从KDC服务器上,可以参考以下脚本,并配置到定时器中#!/bin/shﻩkdclist="kerberos2.exampl kerberos3.exampl"ﻩkdb5_util dump /var/kerberos/krb5kdc/slave_datatransfor kdcin $kdclistdoﻩﻩkprop -f/var/kerberos/krb5kdc/slave_datatrans$kdc2.5.启动从服务器的krb5kdc程序在从服务器上启动命令执行启动:ﻩkrb5kdc2.6.配置自启动在/etc/inittab中增加以下信息可使进程随系统自启动:/etc/init.d/krb5kdc startKadmind2.7.客户端配置下面以csdm-hadoop-03这台机器作为客户端说明相关配置1、在csdm-hadoop-03上安装客户端软件rpm-ivhkrb5-libs-1.10.3-10.el6_4.6.x86_64.rpmﻫrpm-ivhkrb5-workstation-1.10.3-10.el6_4.6.x86_64.rpm2、在主KDC服务器csdm-hadoop-04上,把/etc/krb5.conf复制到csdm-ha doop-03本地对应目录3、在客户端csdm-hadoop-03上启动命令执行启动:krb5kdc此时即可在客户端csdm-hadoop-03上连接KDC服务器4、生成可访问csdm-hadoop-03机器应用程序的验证在主KDC服务器csdm-hadoop-04,生成csdm-hadoop-03的principals和keytab,为客户端csdm-hadoop-03添加principals(可以为host或者所要进行验证的机器用户)addprinc –randkey host/csdm-hadoop-为客户端csdm-hadoop-03生成keytabKtadd–k/var/kerberos/krb5kdc/keytab/host.keytab host/csdm-hadoop-把csdm-hadoop-04上生成的keytab复制到csdm-hadoop-03机器上3.测试服务器3.1.服务器端测试客户端连接ﻫ运行kinit admin/admin,显示提示输入密码则代表配置成功:3.2.远程客户机连接测试在客户机运行kinit admin/admin 连接服务端,显示提示输入密码则代表配置成功:4.Hadoop集成kerberos配置4.1 kerberos配置Hadoop官方网站建议的操作系统用户及权限如下,下面我们按照这三个用户的权限进行配置,要求使用下面三种用户分别具有各自启动相应进程的权限。
User:GroupDaemonshdfs:hadoop NameNode, Secondary NameNode, JournalNode, DataNodeyarn:hadoop ResourceManager, NodeManagermapred:hadoop MapReduce,JobHistory Server4.1.1为所有机器的用户生成principal从主KDC服务器csdm-hadoop-04上,把/etc/krb5.conf复制到csdm-hadoop-03本地对应目录,在主KDC服务器上为hadoop集群中每台机器的用户创建principal,下面以csdm-hadoop-03这台机器为例,运行管理入口命令:kadmin.local在提示符下执行以下命令:addprinc -randkey hdfs/csdm-hadoop-addprinc-randkey host/csdm-hadoop-addprinc -randkey yarn/csdm-hadoop-addprinc -randkey host/csdm-hadoop-addprinc -randkeymapred/csdm-hadoop-addprinc -randkey host/csdm-hadoop-注:◆集群中的每台机器所用到的用户都需执行上面的命令生成principal◆每个用户必须执行addprinc-randkey host/XX@XX的命令,这个命令生成的是基于Kerberos 的应用程序(例如klist和kprop)和服务(例如ftp和telnet)使用的主体。