数据仓库建设方案
- 格式:doc
- 大小:1.69 MB
- 文档页数:32
数据仓库的建立与管理随着数据规模的不断增长以及业务需求的不断变化,越来越多的企业开始重视数据仓库的建设和管理。
数据仓库是指一个集成、主题化、时间基础的数据集合,用于支持企业的决策分析。
在本文中,我们将探讨数据仓库的建立与管理的重要性、方法和技巧。
一、数据仓库的建立与管理的重要性数据仓库的建立和管理对企业的发展和运营具有重要的意义。
首先,数据仓库可以提供更加准确和可靠的数据。
数据仓库将企业内部各部门的数据进行整合和加工,消除了数据源的不一致性和重复性,提高了数据的准确性和可靠性。
其次,数据仓库可以提供更加灵活和全面的数据查询和分析功能。
作为企业决策支持的核心系统,数据仓库可以灵活地支持各种查询和分析需求,提供全面的数据视角和多维度的数据分析结果。
最后,数据仓库可以帮助企业提高决策的效率和质量。
通过数据仓库,企业可以从海量的数据中快速分析出关键的信息和趋势,为企业的决策提供有力的支持。
二、数据仓库的建立方法数据仓库的建立包括数据建模、数据抽取、数据清洗、数据加工、数据存储和数据查询等多个环节。
下面,我们将分别介绍这些环节的具体方法和技巧。
1. 数据建模:数据建模是数据仓库建立的第一步。
数据建模包括概念模型、逻辑模型和物理模型。
概念模型是对业务过程的描述,逻辑模型是将概念模型转换成数据表的结构,物理模型是将逻辑模型映射为数据库实现。
数据建模是数据仓库建立的基础,需要仔细推敲业务需求,保证模型的规范和准确。
2. 数据抽取:数据抽取是将不同数据源的数据引入数据仓库的过程。
数据抽取需要考虑数据源的类型、格式和数据量等多个因素。
数据抽取的技巧包括增量抽取、并行抽取、数据加速等方法。
3. 数据清洗:数据清洗是将原始数据转换为可以使用的数据的过程。
数据清洗需要对数据进行格式转换、数据清除、数据校验等多个步骤。
数据清洗的技巧包括数据去重、数据标准化、数据填充等方法。
4. 数据加工:数据加工是将清洗后的数据转换为数据仓库中的格式。
统计数据库建设方案1. 引言统计数据库是为了支持组织和管理大量统计数据而设计的数据库系统。
它具有高度可伸缩性、高性能和高安全性的特点,能够满足各种统计数据的存储、查询和分析需求。
本文将介绍统计数据库建设的方案。
2. 背景随着社会的不断发展和进步,各个行业和领域都需要进行数据统计和分析,以便做出科学决策和推动发展。
传统的数据统计方式已经无法满足大规模数据处理和智能分析的需求,因此需要建设一个高效可靠的统计数据库来支持这些需求。
3. 建设目标统计数据库的建设目标主要有三个:1.实现大规模数据的高效存储和管理;2.提供快速和灵活的数据查询和分析功能;3.保证数据的安全性和完整性。
4. 建设方案4.1 数据库选择选择一个适合的数据库管理系统是统计数据库建设的第一步。
常见的选项包括关系型数据库和NoSQL数据库。
根据实际需求和数据特点,可以选择适合的数据库系统,如MySQL、Oracle、MongoDB等。
4.2 数据模型设计在建设统计数据库时,需要进行合理的数据模型设计。
可以根据实际业务需求,采用关系型模型、面向文档模型等不同的数据模型。
关系型模型适用于高度结构化的数据,面向文档模型适用于半结构化和非结构化的数据。
4.3 数据采集和导入数据采集是统计数据库建设的重要环节。
可以通过各种方式采集数据,如API接口、批量导入、实时数据流等。
建议使用自动化的数据采集工具,以提高数据采集的效率和准确性。
4.4 数据存储和管理对于大规模数据的存储和管理,可以采用分布式存储系统和分布式数据库来解决。
分布式存储系统能够将数据分散到多个节点上存储,提高存储容量和吞吐量。
分布式数据库能够将数据水平切分并存储于多个节点,提高数据查询和分析的性能。
4.5 数据查询和分析为了提供快速和灵活的数据查询和分析功能,可以采用OLAP(联机分析处理)技术和数据仓库技术。
OLAP技术能够对大规模数据进行多维分析和聚合查询,提供可视化的报表和图表展示。
《数据仓库建设指南》数据仓库建设指南随着企业信息化的趋势不断发展,数据化已经成为企业成长的必经之路。
数据成为了企业在竞争中的筹码,企业数据分析的能力也成为了企业成功的关键。
更多的企业意识到,要想在市场上占有一席之地,精细管理企业,就必须建立一个合理的数据仓库。
那么,数据仓库建设需要考虑哪些要素和步骤呢?本文将一一为您解析。
一、数据仓库简介数据仓库是一种长期积淀和管理数据的系统,它可以帮助企业集中存储和管理来自各种渠道的数据,为企业提供分析支持。
它可以将内部和外部的数据整合、加工之后建立一个统一的数据层用于分析,这样企业就可以在分析过程中减少对数据来源的依赖,加快数据分析过程。
二、数据仓库建设步骤1.规划和准备数据仓库建设是需要投入大量的时间和精力的,因此,首先需要确定需求,明确数据仓库的建设目标,并确保团队中所有成员都清楚地理解目标和业务需求。
同时,团队还需要了解企业的业务流程。
在规划和准备阶段,团队需要对企业业务进行分析和评估,确定数据仓库中需要的信息和数据以及其来源;需要制定数据建设计划,分步骤地完成数据仓库的各个环境的建设和测试,以确保其稳定性和数据可靠性。
2.设计在设计阶段,需要确定数据仓库的基本结构和架构等。
从不同的维度来考虑数据仓库的数据设计,面向业务时的数据设计包括事实表和维度表的设计,以及定义关系型数据模式。
面向数据仓库的设计要考虑数据的存储形式和数据的管理:如何利用索引快速查找数据,如何存储不同的数据格式或类型等。
3.实施实施是数据仓库建设中最为繁琐的环节,这个过程需要投入大量的人力和物力资源。
需要与各种数据源进行连接和整合,然后将这些数据存储到数据仓库中,来适应变化的数据分析需求。
在实施过程中,需要考虑数据清洗、转换和加工等过程。
数据清洗的目的是过滤掉不必要的数据,转换是将数据从一种格式转换为另一种;加工就是从原数据中提取关键信息。
4.测试和验证测试与验证是数据仓库建设过程中很重要的步骤,通过测试可以验证数据仓库所设计的模型和工具是否能够适应实际的业务需求,同时也可以提供一些有益的改进建议。
数据仓库建设流程随着数据量的不断增加和企业对数据分析的需求日益增强,数据仓库作为一种集成、清洗和存储企业数据的解决方案,被越来越多的企业所采用。
而数据仓库的建设过程也是一个相对复杂而又关键的任务。
下面将从需求分析、数据建模、数据抽取和加载、数据清洗和转换、数据质量管理和数据可视化等几个方面介绍数据仓库建设的流程。
需求分析是数据仓库建设的第一步。
在这一阶段,需要与业务部门合作,明确企业对数据仓库的需求和目标。
通过与业务人员的沟通和调研,了解企业业务流程、业务指标以及数据分析的具体需求。
在需求分析阶段,要明确所需数据的来源、数据的粒度和数据的格式等信息,以及数据仓库的性能和可扩展性需求。
数据建模是数据仓库建设的核心环节。
在这一阶段,需要根据需求分析的结果,对数据进行建模。
常用的数据建模方法有维度建模和实体关系建模。
维度建模是一种以事实表和维度表为核心的建模方法,它通过事实表记录业务事实的度量和维度表记录事实的上下文信息,构建起一个灵活、易理解的数据模型。
实体关系建模则是一种基于实体和关系的建模方法,它通过实体和实体之间的关系来描述业务领域和数据之间的关系。
数据建模的结果是一个逻辑模型和物理模型,用于指导后续的数据抽取和加载工作。
数据抽取和加载是数据仓库建设的重要环节。
在这一阶段,需要根据数据建模的结果,设计和实现数据抽取和加载的过程。
数据抽取是指从源系统中提取数据的过程,可以通过数据库连接、文件导入等方式进行。
数据加载是指将抽取到的数据加载到数据仓库中的过程,可以通过插入、更新和删除等方式进行。
数据抽取和加载的过程需要考虑数据的完整性、准确性和及时性,以保证数据仓库中的数据与源系统保持一致。
数据清洗和转换是数据仓库建设的关键环节。
在这一阶段,需要对抽取到的数据进行清洗和转换,以保证数据的质量和一致性。
数据清洗是指对数据进行去重、纠错、填充缺失值等处理,以消除数据中的噪声和错误。
数据转换是指对数据进行格式转换、单位换算、数据合并等处理,以满足数据仓库中的数据模型和分析需求。
XX银行数据仓库建设项目方案1. 项目概述本文档旨在介绍XX银行数据仓库建设项目的方案和目标。
数据仓库是一个用于集成和管理银行的各类数据的中央存储库,可为决策支持和业务分析提供有价值的信息。
本项目的目标是构建一个稳定、高效、可扩展的数据仓库,以提高XX银行的决策能力和业务竞争力。
2. 项目背景XX银行作为一家领先的金融机构,面临着数据分散、决策效率低下的问题。
传统的数据集成和分析方法已经无法满足业务需求,因此需要建立一个数据仓库来解决这些问题。
数据仓库将集中存储和管理各类数据,并提供强大的分析工具和报表功能,以支持XX银行的战略决策和业务优化。
本项目的目标是构建一个可靠、高效的数据仓库系统,具体包括以下几个方面:•数据集成:从各个业务系统中提取、清洗和转换数据,确保数据质量和一致性。
•数据存储:设计和构建合适的数据存储结构,包括数据表、索引等,以支持复杂的数据查询和分析。
•数据分析:开发和部署适合XX银行业务需求的数据分析工具和算法,提供灵活和高效的数据查询和报表功能。
•数据安全:确保数据仓库的安全性,实施访问控制和数据加密等措施,防止未授权的访问和数据泄露。
4.1 需求分析阶段在这个阶段,项目团队将与XX银行的不同业务部门和利益相关方进行沟通和需求收集。
我们将详细了解业务需求和数据源,并建立数据仓库的数据模型和架构设计。
4.2 数据集成阶段在数据集成阶段,我们将根据需求分析阶段的结果,从各个业务系统中提取和转换数据。
我们将设计和实现合适的ETL(提取、转换和加载)过程,确保数据质量和一致性。
4.3 数据存储阶段在数据存储阶段,我们将设计和构建数据仓库的存储结构,包括数据表、索引和分区等。
我们将利用合适的数据库技术和管理工具,如关系数据库和NoSQL数据库,来存储和管理数据。
4.4 数据分析阶段在数据分析阶段,我们将开发和部署适合XX银行业务需求的数据分析工具和报表功能。
我们将使用先进的分析算法和可视化技术,帮助XX银行的管理层和业务部门进行决策分析和业务优化。
数据中心建设项目数据库设计开发方案及实施方案本项目中, 数据库设计与建设包括用于数据中心进行数据存储、交换、应用的数据中心数据库, 和用于数据统计、分析、挖掘的数据仓库的设计与建设。
本数据中心数据库的建设要满足金信工程的相关设计要求, 满足上级工商、质监、知识产权等市场监管部门的工作要求。
数据中心顾名思义, 是专注于数据处理和服务的中心, 旨在建立数据采集、更新、管理、使用机制, 加快系统内部信息交流与反馈, 为公众服务和相关政府部门数据交换建立基础, 为工商、质监、知识产权部门各级管理人员提供决策支持服务。
1.1.数据中心应用功能与业务处理功能的不同之处在于数据中心是以数据为管理对象, 而业务应用系统以业务为管理对象。
数据中心将从业务应用系统采集到的数据进行清洗和统一存放, 根据不同的需求进行加工, 生成不同的数据产品供各系统使用。
数据中心独立于应用系统之外, 又与应用系统有密切的联系。
1.2.数据中心是存储市场监督管理局经过筛选、去重、整理后的核心业务、人员数据等信息, 整合了全市各类主体信息资源和市场主体、人员相关的信息资源, 并进行统一管理和维护;数据中心通过深入挖掘数据价值, 开发实现灵活、高效的数据查询、业务报表、数据共享和数据交换等功能, 为政务公开、业务协同、绩效考核、决策支持、公共服务等提供数据保障。
1.3.数据中心建设原则金信工程数据中心建设遵循如下原则:1.总体规划, 建立科学、完整的信息资源管理体系整体规划, 将以往分散的数据资源进行整合, 建立科学、完整的信息资源体系结构, 确保业务人员、技术开发人员等使用和维护信息资源的用户从整体上把握数据资源的情况, 方便、准确的利用信息资源和有效的维护、管理信息资源。
科学、完整的信息资源管控体系不但包括信息资源自身的完整性, 科学性, 也应包括信息采集、管理、共享、利用方式的规划, 以及数据模型、数据指标等规范化、标准化的考虑。
2.统一规划、集中管理各类信息资源统一规划数据资源, 不只是要对各类信息资源进行物理集中存储管理, 还要在对业务数据分析的基础上, 一体化规划并设计系统数据模型, 统一制定业务数据指标体系, 以管理服务对象为核心, 组织相关联的业务数据, 实现对内业务使用、对外服务应用的统一视图。
第1章数据仓库建设1.1 数据仓库总体架构专家系统接收增购工程车辆TCMS或其他子系统通过车地通信传输的实时或离线数据,颠末一系列综合诊断阐发,以各种报表图形或信息推送的形式向用户展示阐发成果。
针对诊断出的车辆故障将给出专家建议处置办法,为车辆的故障根因修复提供必要的撑持。
按照专家系统数据仓库建设目标,结合系统数据业务尺度,包罗数据采集频率、数据采集量等相关因素,设计专家系统数据仓库架构如下:数据仓库架构从层次布局上分为数据采集、数据存、数据阐发、数据效劳等几个方面的内容:数据采集:负责从各业务自系统中堆积信息数据,系统支撑Kafka、Storm、Flume及传统的ETL采集东西。
数据存储:本系统提供Hdfs、Hbase及RDBMS相结合的存储模式,撑持海量数据的分布式存储。
数据阐发:数据仓库体系撑持传统的OLAP阐发及基于Spark常规机器学习算法。
数据效劳总线:数据系统提供数据效劳总线效劳,实现对数据资源的统一打点和调剂,并对外提供数据效劳。
1.2 数据采集专家系统数据仓库数据采集包罗两个局部内容:外部数据堆积、内部各层数据的提取与加载。
外部数据堆积是指从TCMS、车载子系统等外部信息系统堆积数据到专家数据仓库的操作型存储层〔ODS〕;内部各层数据的提取与加载是指数据仓库各存储层间的数据提取、转换与加载。
1.2.1外部数据堆积专家数据仓库数据源包罗列车监控与检测系统〔TCMS〕、车载子系统等相关子系统,数据采集的内容分为实时数据采集和按时数据采集两大类,实时数据采集主要对于各项检测指标数据;非实时采集包罗日检修数据等。
按照工程信息堆积要求,列车指标信息采集具有采集数据量大,采集频率高的特点,考虑到系统后期的扩展,因此在数据数据采集方面,要求采集体系撑持高吞吐量、高频率、海量数据采集,同时系统应该灵活可配置,可按照业务的需要进行灵活配置横向扩展。
本方案在数据采集架构采用Flume+Kafka+Storm的组合架构,采用Flume和ETL 东西作为Kafka的Producer,采用Storm作为Kafka的Consumer,Storm可实现对海量数据的实时处置,及时对问题指标进行预警。
第1章数据仓库建设1.1 数据仓库总体架构专家系统接收增购项目车辆TCMS或其他子系统通过车地通信传输的实时或离线数据,经过一系列综合诊断分析,以各种报表图形或信息推送的形式向用户展示分析结果。
针对诊断出的车辆故障将给出专家建议处理措施,为车辆的故障根因修复提供必要的支持。
根据专家系统数据仓库建设目标,结合系统数据业务规范,包括数据采集频率、数据采集量等相关因素,设计专家系统数据仓库架构如下:数据仓库架构从层次结构上分为数据采集、数据存、数据分析、数据服务等几个方面的内容:数据采集:负责从各业务自系统中汇集信息数据,系统支撑Kafka、Storm、Flume及传统的ETL采集工具。
数据存储:本系统提供Hdfs、Hbase及RDBMS相结合的存储模式,支持海量数据的分布式存储。
数据分析:数据仓库体系支持传统的OLAP分析及基于Spark常规机器学习算法。
数据服务总线:数据系统提供数据服务总线服务,实现对数据资源的统一管理和调度,并对外提供数据服务。
1.2 数据采集专家系统数据仓库数据采集包括两个部分内容:外部数据汇集、内部各层数据的提取与加载。
外部数据汇集是指从TCMS、车载子系统等外部信息系统汇集数据到专家数据仓库的操作型存储层(ODS);内部各层数据的提取与加载是指数据仓库各存储层间的数据提取、转换与加载。
1.2.1外部数据汇集专家数据仓库数据源包括列车监控与检测系统(TCMS)、车载子系统等相关子系统,数据采集的内容分为实时数据采集和定时数据采集两大类,实时数据采集主要对于各项检测指标数据;非实时采集包括日检修数据等。
根据项目信息汇集要求,列车指标信息采集具有采集数据量大,采集频率高的特点,考虑到系统后期的扩展,因此在数据数据采集方面,要求采集体系支持高吞吐量、高频率、海量数据采集,同时系统应该灵活可配置,可根据业务的需要进行灵活配置横向扩展。
本方案在数据采集架构采用Flume+Kafka+Storm的组合架构,采用Flume和ETL 工具作为Kafka的Producer,采用Storm作为Kafka的Consumer,Storm可实现对海量数据的实时处理,及时对问题指标进行预警。
具体采集系统技术结构图如下:1.2.1.1 数据汇集架构功能Flume提供了从console(控制台)、RPC(Thrift-RPC)、text(文件)、tail(UNIX tail)、syslog(syslog日志系统,支持TCP和UDP等2种模式),exec(命令执行)等数据源上收集数据的能力。
Flume的数据接受方,可以是console(控制台)、text(文件)、dfs(HDFS 文件)、RPC(Thrift-RPC)和syslogTCP(TCP syslog日志系统)等。
在我们系统中由kafka 来接收。
Kafka分布式消息队列,支撑系统性能横向扩展,通过增加broker来提高系统的性能。
Storm流处理技术,支撑Supervisor横向扩展以提高系统的扩展性和数据处理的实时性。
1.2.1.2 采集架构优势(一)解耦在项目中要平衡数据的汇集与数据的处理性能平衡,是极其困难的。
消息队列在处理过程中间插入了一个隐含的、基于数据的接口层,两边的处理过程都要实现这一接口。
这允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束。
•冗余有些情况下,处理数据的过程会失败。
除非数据被持久化,否则将造成丢失。
消息队列把数据进行持久化直到它们已经被完全处理,通过这一方式规避了数据丢失风险。
在被许多消息队列所采用的“插入-获取-删除”范式中,在把一个消息从队列中删除之前,需要你的处理过程明确的指出该消息已经被处理完毕,确保你的数据被安全的保存直到你使用完毕。
•扩展性因为消息队列解耦了你的处理过程,所以增大消息入队和处理的频率是很容易的;只要另外增加处理过程即可。
不需要改变代码、不需要调节参数。
扩展就像调大电力按钮一样简单。
•灵活性& 峰值处理能力在访问量剧增的情况下,应用仍然需要继续发挥作用,但是这样的突发流量并不常见;如果为以能处理这类峰值访问为标准来投入资源随时待命无疑是巨大的浪费。
使用消息队列能够使关键组件顶住突发的访问压力,而不会因为突发的超负荷的请求而完全崩溃。
•可恢复性当体系的一部分组件失效,不会影响到整个系统。
消息队列降低了进程间的耦合度,所以即使一个处理消息的进程挂掉,加入队列中的消息仍然可以在系统恢复后被处理。
而这种允许重试或者延后处理请求的能力通常是造就一个略感不便的用户和一个沮丧透顶的用户之间的区别。
•送达保证消息队列提供的冗余机制保证了消息能被实际的处理,只要一个进程读取了该队列即可。
在此基础上,IronMQ提供了一个”只送达一次”保证。
无论有多少进程在从队列中领取数据,每一个消息只能被处理一次。
这之所以成为可能,是因为获取一个消息只是”预定”了这个消息,暂时把它移出了队列。
除非客户端明确的表示已经处理完了这个消息,否则这个消息会被放回队列中去,在一段可配置的时间之后可再次被处理。
•缓冲在任何重要的系统中,都会有需要不同的处理时间的元素。
例如,加载一张图片比应用过滤器花费更少的时间。
消息队列通过一个缓冲层来帮助任务最高效率的执行—写入队列的处理会尽可能的快速,而不受从队列读的预备处理的约束。
该缓冲有助于控制和优化数据流经过系统的速度。
•异步通信很多时候,你不想也不需要立即处理消息。
消息队列提供了异步处理机制,允许你把一个消息放入队列,但并不立即处理它。
你想向队列中放入多少消息就放多少,然后在你乐意的时候再去处理它们。
1.2.2内部各层数据提取与加载数据汇集将数据储存于操作型数据存储层(ODS),在数据仓库各层次间数据转换提取加载,采用传统的ETL工具进行采集,数据仓库间的各层次的数据采集的实效性根据具体的数据需求而定,具体ETL建模界面如图:1.3 数据加工与处理对于数据仓库平台,应该建立一套标准化、规范化的数据处理流程,例如:如何采集内部和外部数据、结构化和非结构化数据;如何清洗采集来的脏数据和无效数据;如何对不同来源的数据进行打通;如何对非结构化的数据进行结构化加工;如何在结构化数据的基础上进行商业建模和数据挖掘等等。
大数据管理层在一条数据总线上构建了一条完整的大数据处理流水线。
这条流水线从数据的采集、清洗到加工处理,把原始杂乱无章的数据加工成结构化的数据组件,供上层的大数据应用来拼装调用,让企业拥有创造数据资产的能力。
1.4 存储设计1.4.1数据量估算按每列列车平均500毫秒通过车地通信采集监测数据100条,每天运营时间18小时,按每条记录160字节计算(监测数据的数据项相对简单),初步按照67列列车计算。
单列列车日监测数据=3600*2*160*100*18/1024/1024/1024≈2G67列列车年数据量=2*67*365/1024 ≈48T10年总数据量(乘上增长系数10%)≈530T (含操作系统)数据规划10年,加上系统用户信息、系统日志信息、专家信息、业务数据及其它不可预测类数据,数据总量预估530T。
1.4.2数据存储专家系统数据采用混合存储模式进行存储,RDBMS存储专家系统业务基本数据及最近1年的监测数据,10年内历史监测数据采用NoSQL HBase数据库进行存储,以方便查询,HBase基于Hdfs分布式文件系统搭建,具体存储模式如下图。
1.RDBMS数据库,支持专家库的核心业务,存储列车最近1年的监测数据为保证专家系统安全、稳定运行,在数据库系统上支撑各种统计分析及传统的BI业务。
考虑到操作系统存储、缓存存储、数据库系统存储、日志存储等因素,RDBMS数据库服务器预计每台60T存储,考虑数据安全及系统稳定因素RDBMS采用双机热备技术互备。
2.大数据平台规划存储最近10年监测数据,日志文件备份及历史数据采用大数据Hadoop和HBase存储,大数据平台数据采用节点间冗余备份,预设数据2倍冗余存储,(考虑平台提供的压缩技术,压缩存储可以节省30-55%的空间)。
10年数据量=530T*1.5≈800T (2倍冗余存储)1.4.3分层存储专家数据分三个层次进行汇集与存储,分别为ODS层、数据仓库层、主题数据层,各层次数据存储内容如下➢ODS层:数据来源于各生产系统,通过ETL工具对接口文件数据进行编码替换和数据清洗转换,不做关联操作。
未来也可用于准实时数据查询。
➢数据仓库层:数据深度汇集层,根据业务有选择的对ODS层的数据进行提取,通过对数据的加工处理,将单一的数据信息转换成体系信息,将点信息数据变成面信息数据。
➢主题数据层:将数据信息体系根据各主题进行提取与转换,主题域内部进行拆分、关联。
是对ODS操作型数据按照主题域划分规则进行的拆分及合并。
1.5 数据分析建模伴随着大数据时代的悄然来临,数据的价值得到人们的广泛认同,对数据的重视提到了前所未有的高度。
数据已经作为企业、事业单位的重要资产被广泛应用于盈利分析与预测、客户关系管理、合规性监管、运营风险管理等业务当中。
如何建立大数据分析模型,以提供决策依据是很多用户所迫切解决的问题。
专家数据仓库建立在Hadoop分布式系统之上,提供了多种丰富的算法模型,不同的应用通过借助不同的接口实现数据的多维呈现和结果展示,为用户提供科学的决策支持。
图 10-7 hadoop算法模型图大数据平台提供数据挖掘模型、分布式计算引擎、高性能机器学习算法库(包含分类、聚类、预测、推荐等机器学习算法)、即席查询功能,可以帮助决策者快速建立数据分析模型立方体,便于决策者进行OLAP分析。
常用算法模型:➢分类算法:分类是找出数据库中的一组数据对象的共同特点并按照分类模式将其划分为不同的类,其目的是通过分类模型,将数据库中的数据项映射到某个给定的类别中。
如政务网中将用户在一段时间内的网上办理所遇到的问题划分成不同的类,根据情况向用户推荐关联类的问题解决方案,从而方便用户快速解决网上办事审批中遇到的各类问题。
➢回归算法回归分析反映了数据库中数据的属性值的特性,通过函数表达数据映射的关系来发现属性值之间的依赖关系。
在回归算法中通常将数值结果转化为了0到1之间的概率,数值越大,函数越逼近1,数值越小,函数越逼近0,它可以应用到对数据序列的预测及相关关系的研究中去。
如我们根据这个概率可以做垃圾邮件预测,例如概率大于0.5,则这封邮件就是垃圾邮件。
➢聚类算法聚类类似于分类,但与分类的目的不同,是针对数据的相似性和差异性将一组数据分为几个类别。
属于同一类别的数据间的相似性很大,但不同类别之间数据的相似性很小,跨类的数据关联性很低。
分类算法中的一个显著特征就是训练数据中包含了标签,训练出的模型可以对其他未知数据预测标签。