《大数据多维分析平台实践方案》
- 格式:docx
- 大小:239.38 KB
- 文档页数:8
大数据分析平台的搭建与运维指南随着互联网技术的迅猛发展和数据量呈指数级增长,大数据分析成为了许多企业解决业务问题和提升经营效益的关键技术。
搭建一个高效可靠的大数据分析平台对于企业的持续发展至关重要。
本文将为您提供大数据分析平台的搭建与运维指南。
一、硬件设备与基础网络搭建一个稳定可靠的大数据分析平台,首先需要考虑硬件设备和基础网络的搭建。
硬件包括服务器、存储设备、网络设备等。
服务器的选择要考虑性能和稳定性,建议选择企业级服务器。
存储设备要具备高容量和高性能的特点,以满足大数据存储和读写需求。
网络设备要能够支持大流量的数据传输,并且要有多重安全防护措施。
二、数据采集与传输大数据分析平台的核心在于数据的采集和传输。
数据的采集可以通过不同的方式进行,如批量导入、实时采集和定时采集等。
根据实际需求选择合适的采集方式。
数据传输要确保数据的完整性和安全性,可以使用SSL加密等手段,同时要进行数据的备份,以防止数据丢失。
三、数据存储与管理大数据分析平台的数据存储与管理是保证平台正常运行的关键。
数据存储可以选择传统的关系型数据库或者分布式数据库,根据实际需求选择适当的数据库技术。
此外,还可以考虑使用其他数据存储技术,如Hadoop分布式文件系统(HDFS)和NoSQL数据库等。
数据管理方面,需要建立清晰的数据分类及管理机制,确保数据的可靠性和一致性。
四、数据处理与分析数据处理与分析是大数据分析平台的核心功能。
数据处理可以通过编写MapReduce程序来实现,也可以使用开源的分布式计算框架,如Apache Spark等。
数据分析方面,可以使用机器学习算法和统计分析方法,对海量数据进行挖掘和分析。
同时,还需要建立数据可视化平台,以便用户能够直观地理解和利用分析结果。
五、安全与权限控制安全是大数据分析平台建设中需要高度关注的一个方面。
在搭建过程中,需要采取各种措施,如设置防火墙、加密数据传输、实施访问控制等,以确保平台的安全性。
第1篇一、前言随着信息技术的飞速发展,大数据时代已经到来。
大数据作为一种新型资源,蕴含着巨大的价值。
为了更好地理解和应用大数据技术,提升数据分析能力,我们团队开展了本次大数据分析综合实践。
本报告将对实践过程、实践成果以及实践体会进行详细阐述。
二、实践背景与目标1. 实践背景随着互联网、物联网、云计算等技术的普及,人类社会产生了海量数据。
这些数据不仅包括传统的文本、图像、音频、视频等,还包括社交媒体、传感器、电子商务等新型数据。
如何从这些海量数据中提取有价值的信息,成为当前数据科学领域的重要课题。
2. 实践目标(1)掌握大数据分析的基本方法和技术;(2)运用所学知识对实际数据进行处理和分析;(3)提高团队协作能力和解决问题的能力;(4)培养创新意识和实践能力。
三、实践内容与方法1. 数据采集与预处理(1)数据采集:根据实践需求,我们从互联网上获取了相关数据集,包括电商数据、社交媒体数据、气象数据等;(2)数据预处理:对采集到的数据进行清洗、去重、格式转换等操作,确保数据质量。
2. 数据分析与挖掘(1)数据可视化:利用Python、R等编程语言,对数据进行可视化展示,直观地了解数据特征;(2)统计分析:运用统计方法对数据进行描述性分析,挖掘数据背后的规律;(3)机器学习:运用机器学习方法对数据进行分类、聚类、预测等分析,挖掘数据中的潜在价值。
3. 实践工具与平台(1)编程语言:Python、R;(2)数据库:MySQL、MongoDB;(3)数据分析工具:Jupyter Notebook、RStudio;(4)云计算平台:阿里云、腾讯云。
四、实践成果1. 数据可视化分析通过对电商数据的可视化分析,我们发现了以下规律:(1)消费者购买行为与时间、地区、产品类别等因素密切相关;(2)节假日、促销活动期间,消费者购买意愿明显增强;(3)不同年龄段消费者偏好不同,年轻消费者更倾向于追求时尚、个性化的产品。
2. 社交媒体情感分析利用社交媒体数据,我们对用户评论进行情感分析,发现以下结果:(1)消费者对产品的满意度较高,好评率较高;(2)消费者关注的产品功能主要集中在质量、价格、服务等方面;(3)针对消费者提出的问题,企业应加强售后服务,提高客户满意度。
大数据平台实施方案在当前信息化时代,大数据已经成为企业发展的重要驱动力之一。
大数据平台的建设和实施,对于企业的运营管理和决策分析具有重要意义。
因此,本文将针对大数据平台的实施方案进行详细介绍和分析。
首先,大数据平台的实施需要明确的目标和规划。
企业需要明确自身的业务需求和目标,以及所面临的挑战和机遇。
在明确了目标和规划之后,企业需要进行全面的需求分析,包括数据采集、存储、处理、分析和应用等各个环节。
只有充分了解自身的需求,才能够有针对性地进行大数据平台的实施。
其次,大数据平台的实施需要选择合适的技术和工具。
在当前的大数据技术领域,有很多成熟的技术和工具可供选择,如Hadoop、Spark、Hive等。
企业需要根据自身的需求和实际情况,选择合适的技术和工具进行平台的搭建和实施。
同时,还需要考虑技术的可扩展性和灵活性,以便能够适应未来业务的发展和变化。
另外,大数据平台的实施还需要考虑数据的安全和隐私保护。
随着大数据的应用范围不断扩大,数据的安全和隐私保护越来越受到重视。
企业需要在平台实施的过程中,加强对数据的安全管理和控制,确保数据不被泄露和滥用。
同时,还需要遵守相关的法律法规,保护用户的隐私权益。
最后,大数据平台的实施需要注重人才培养和团队建设。
大数据技术的应用和实施需要具备一定的技术能力和专业知识。
因此,企业需要加强对人才的培养和引进,建立一支专业的团队,来保障大数据平台的顺利实施和运营。
综上所述,大数据平台的实施是一个复杂而又重要的工作。
企业需要明确目标和规划,选择合适的技术和工具,注重数据的安全和隐私保护,以及加强人才培养和团队建设。
只有做好这些工作,才能够保障大数据平台的顺利实施和运营,为企业的发展提供有力的支持。
大数据分析平台设计方案一、引言在当今信息爆炸的时代,大数据已经成为各个行业中不可忽视的重要资源。
随着数据量的不断增长,传统的数据分析方法已经无法满足企业对数据深度挖掘的需求。
因此,构建一套高效、可靠的大数据分析平台迫在眉睫。
本文将重点介绍一种基于云计算、并行计算和机器学习等技术的大数据分析平台设计方案。
二、背景分析随着互联网和物联网的快速发展,海量数据持续涌现。
传统的数据分析方法,如关系型数据库和数据仓库,面临着数据量过大、处理速度慢、数据结构复杂等问题。
因此,开发一套新型的大数据分析平台,能够高效处理和分析海量数据,对于企业决策和业务优化具有重要意义。
三、设计原则1. 横向扩展性:平台应具备良好的横向扩展性,能够根据数据规模的增长进行动态的资源分配和负载均衡。
2. 高可用性和容错性:平台应具备高可用性和容错性,能够保证数据分析的稳定运行,避免单点故障。
3. 高性能:平台应具备高性能的数据处理和计算能力,以实现实时、快速的数据分析与挖掘。
4. 灵活的数据模型:平台应支持多种数据模型,如关系型数据、非关系型数据和图数据等,以满足不同业务需求。
四、系统架构基于上述的设计原则,我们提出以下大数据分析平台的系统架构:1. 数据收集与预处理数据收集和预处理是大数据分析的首要环节。
在该阶段,数据可以通过各种方式进行采集,如日志记录、传感器数据等。
然后对采集到的数据进行清洗、过滤和转换,并对数据进行初步的统计分析,以便后续的深入挖掘。
2. 分布式存储与管理在大数据分析平台中,分布式存储系统是核心基础设施之一。
我们可以选择使用Hadoop分布式文件系统(HDFS)或类似的开源分布式存储系统。
通过数据切分、冗余备份和分布式管理,来确保数据的可靠存储和高效访问。
3. 数据处理与计算数据处理与计算模块是大数据分析平台的核心功能之一。
这里我们可以采用并行计算框架,如Apache Spark或Hadoop MapReduce,以实现分布式的数据处理和计算。
大数据分析平台的构建与实践随着大数据时代的到来,大数据分析已经成为各个行业中不可或缺的一部分。
大数据分析平台的构建与实践,对于企业来说具有重要的意义。
本文将重点介绍大数据分析平台的构建和实践,并提供一些实用的建议。
一、大数据分析平台的构建大数据分析平台的构建是一个复杂而庞大的过程,需要综合考虑各种因素。
下面列举了构建大数据分析平台的几个关键步骤:1. 数据收集和存储:构建大数据分析平台的第一步是收集和存储海量的数据。
可以通过各种渠道获取数据,如传感器、社交媒体、日志文件等。
同时,需要选择适当的存储方案,如分布式文件系统、数据仓库等。
2. 数据清洗和预处理:收集到的数据通常存在噪音、缺失值和异常值等问题,需要进行清洗和预处理。
清洗和预处理的步骤包括去除重复数据、填充缺失值、处理异常值等。
3. 数据集成和转换:大数据分析平台往往需要处理来自多个来源的数据,因此需要进行数据集成和转换。
可以使用ETL工具(抽取、转换和加载)将多个数据源中的数据整合到一个统一的数据仓库中,以方便进行分析。
4. 数据模型和算法设计:在构建大数据分析平台时,需要设计适合具体任务的数据模型和算法。
数据模型可以帮助理解数据的结构和关系,算法则能够发现数据中的规律和模式。
5. 分析和可视化:最后一步是进行数据分析和可视化。
可以使用各种统计分析方法、机器学习算法和人工智能技术来对数据进行分析。
同时,通过可视化工具将分析结果以图表、图形等形式展示出来,以便用户能够直观地理解和应用分析结果。
二、大数据分析平台的实践在实践中,构建大数据分析平台需要考虑以下几个方面:1. 技术架构选择:在选择技术架构时,需要考虑数据量、数据类型和实时性等因素。
对于大规模、高速的数据处理,可以选择分布式存储和计算框架,如Hadoop、Spark等。
对于实时数据处理,可以选择流式计算框架,如Storm、Flink等。
2. 硬件设备和资源规划:构建大数据分析平台需要考虑硬件设备和资源规划。
大数据平台实施方案一、背景分析。
随着信息化时代的到来,数据量呈现爆炸式增长,企业对数据的需求也越来越大。
而大数据平台的建设,成为了企业信息化建设的重要组成部分。
大数据平台的建设,不仅可以帮助企业更好地管理和利用数据,还可以为企业决策提供更加准确的依据,提升企业的竞争力。
二、目标和原则。
1. 目标,建设一套高效稳定的大数据平台,满足企业对数据处理和分析的需求。
2. 原则,安全可靠、高效稳定、易扩展、成本可控。
三、实施方案。
1. 硬件设施。
在大数据平台的建设中,硬件设施是基础。
需要根据企业的实际需求,选择合适的服务器、存储设备和网络设备,保证整个平台的性能和稳定性。
2. 数据采集。
数据采集是大数据平台建设的第一步,需要将企业各个系统产生的数据进行采集,并统一存储到大数据平台中,以便后续的处理和分析。
3. 数据处理。
数据处理是大数据平台的核心环节,需要建立数据处理引擎,对采集到的数据进行清洗、转换和计算,以便为企业提供准确的数据支持。
4. 数据分析。
建立数据分析模块,为企业提供数据可视化、报表分析等功能,帮助企业更好地理解数据,从而做出更加明智的决策。
5. 数据安全。
数据安全是大数据平台建设中必须重视的问题,需要建立完善的安全策略和控制措施,保障数据的机密性和完整性。
6. 平台管理。
建立大数据平台的管理体系,包括平台监控、故障处理、性能优化等,保证大数据平台的稳定运行。
四、实施步骤。
1. 确定需求,与企业各部门沟通,了解他们对大数据平台的需求和期望。
2. 硬件选型,根据需求确定硬件设施的选型方案,包括服务器、存储设备、网络设备等。
3. 系统搭建,按照选定的方案,进行系统的搭建和部署,包括数据采集、处理、分析等模块的建设。
4. 测试验证,对搭建好的系统进行测试验证,确保系统的稳定性和性能满足需求。
5. 上线运行,系统通过测试验证后,进行上线运行,并进行监控和管理。
五、总结。
大数据平台的实施方案,需要充分考虑企业的实际需求和发展规划,选择合适的硬件设施和技术方案,确保平台的高效稳定运行。
企业级大数据分析平台实施方案第一章引言 (2)1.1 项目背景 (3)1.2 项目目标 (3)1.3 项目意义 (3)第二章需求分析 (3)2.1 业务需求 (3)2.2 技术需求 (4)2.3 用户需求 (4)第三章系统架构设计 (4)3.1 总体架构 (4)3.2 技术选型 (5)3.3 数据流转设计 (5)第四章数据采集与存储 (6)4.1 数据源分析 (6)4.1.1 结构化数据源分析 (6)4.1.2 非结构化数据源分析 (6)4.2 数据采集策略 (6)4.2.1 数据爬取 (6)4.2.2 数据接口 (7)4.2.3 数据库连接 (7)4.2.4 数据同步 (7)4.3 数据存储方案 (7)4.3.1 关系型数据库存储 (7)4.3.2 文件存储 (7)4.3.3 缓存存储 (7)4.3.4 分布式数据库存储 (7)4.3.5 混合存储 (8)第五章数据处理与清洗 (8)5.1 数据预处理 (8)5.2 数据清洗规则 (8)5.3 数据质量管理 (9)第六章数据分析与挖掘 (9)6.1 数据分析方法 (9)6.1.1 描述性统计分析 (9)6.1.2 摸索性数据分析(EDA) (9)6.1.3 差异性分析 (9)6.1.4 相关性分析 (10)6.2 数据挖掘算法 (10)6.2.1 分类算法 (10)6.2.2 聚类算法 (10)6.2.3 关联规则挖掘 (10)6.2.4 回归分析 (10)6.3 模型评估与优化 (10)6.3.1 评估指标 (10)6.3.2 交叉验证 (10)6.3.3 超参数调优 (11)6.3.4 集成学习 (11)第七章数据可视化与报告 (11)7.1 可视化工具选型 (11)7.2 报告模板设计 (11)7.3 数据可视化展示 (12)第八章安全与权限管理 (12)8.1 数据安全策略 (12)8.2 用户权限设置 (13)8.3 安全审计与监控 (13)第九章系统集成与部署 (14)9.1 系统集成方案 (14)9.1.1 系统架构设计 (14)9.1.2 集成策略 (14)9.2 部署环境准备 (14)9.2.1 硬件环境 (14)9.2.2 软件环境 (14)9.3 部署与实施 (15)9.3.1 部署流程 (15)9.3.2 实施步骤 (15)第十章运维与维护 (15)10.1 运维策略 (15)10.2 故障处理 (16)10.3 系统升级与优化 (16)第十一章培训与推广 (16)11.1 培训计划 (16)11.2 培训资料编写 (17)11.3 推广与实施 (17)第十二章项目评估与总结 (18)12.1 项目成果评估 (18)12.2 项目经验总结 (18)12.3 项目改进建议 (19)第一章引言社会的不断发展和科技的进步,各种新的挑战和机遇不断涌现。
大数据多维分析平台实践方案一、大数据多维分析平台搭建的初心随着公司业务量的增长,基于传统关系型数据库搭建的各种报表查询分析系统,性能下降明显。
同时由于大数据平台的的日趋完善,实时的核心业务数据逐步进入大数据平台。
数据进入了大数据平台,相伴而来的是各种业务需求,这里主要聚焦在如何高效稳定的基于大数据平台的数据进行查询。
通过分析,我们面临的挑战如下:•亿级别表下任意维度和时间跨度的高效的统计查询。
•业务分析的维度越来越多,是否可以提供一个灵活的多维度组合查询的工具,而不是针对不同的维度组合开发不同的报表。
基于以上目标,开始搭建大数据的多维分析平台。
二、多维分析平台技术选型搭建多维分析平台,首先面临的是技术选型,基于我们对开源框架的使用经验和实际情况,我们主要看业界主流的公司是如何使用应对的,在技术选型上会进行一定的比较,但不会投入比较大的资源进行验证,主张快速的迭代,效果的评估。
多维分析平台技术选型主要面临是OLAP引擎和前端UI的选型。
我们先来看一下OLAP的基本概念和分类。
OLAP翻译成中文叫联机分析处理,OLTP叫联机事务处理。
OLTP 它的核心是事务,实际上就是我们常见的数据库。
我们业务数据库就是面向于事务。
它的并发量会比较高,但是操作的数据量会比较小。
它是实时更新的。
数据库的设计会按照3NF范式,更高的话可能会按照BC范式之类的来做。
而OLAP的核心是分析,面向应用是分析决策,需要分析的数据级会非常大,可能TB,甚至PB都会有。
它的数据更新会稍微慢一些,它的设计一般是反范式的,因为面向分析。
常见的是雪花模型和星型模型。
OLAP的引擎目前主要分为3类第一种叫ROLAP,叫关系型OLAP,它的特点就是它是基于关系性模型,计算的时候,根据原始数据去做聚合运算。
常见的实现,小数据量可以利用MySQL、SqlServer这种传统数据库,而大数据量可以利用SparkSQL、Tidb、ES这些项目。
第二种类型叫MOLAP,叫多维OLAP,它的特点就是它会基于一个预定义的模型,我需要知道,要根据什么维度,要去算哪些指标,我提前就把这些结果弄好,存储在引擎上。
细节数据和聚合后的数据保存在cube中,以空间换时间,查询效率高。
实际上我们的很多业务也是基于此思想去做的,比如我们会在ES里面按照电站、客户等维度进行聚合,满足日常的T+1查询需求,只不过这个地方每个聚合维度需要在ES里面做一个表,并增加上复杂的ETL处理。
符合这个理念在业界用的比较多的为Kylin。
并且基于Kylin有完整的一套开源产品KMS。
涵盖了多维分析的前端UI及多维分析数据库。
第三种叫HOLAP(HybridOLAP),叫混合OLAP,特点是数据保留在关系型数据库的事实表中,但是聚合后的数据保存在cube中,聚合时需要比ROLAP高,但低于MOLAP。
综合分析,技术选型上主要考虑第ROLAP和MOLAP。
关于OLAP 的分类已经经过了很多年的发展,市场上相关的产品也有很多,但是大数据下基于开源组件应该如何搞?在大数据时代,有了分布式计算和分布式存储,对于亿级别表的任意时间跨度多维度组合的查询,是不是可以直接查询,不用再预聚合。
按照这个思路,查找了一些方案,没有很明显的技术倾向,我们想尝试了在Sparksql、tidb、es上直接基于原始数据进行计算,效果不是很理想,这个按照理论,如果查询要想达到比较好的结果,可能集群规模需要加大不少。
同时我们对别了大数据的MOLAP的产品,发现了KMS框架,最大的特点是同时提供了前端展现、以及数据库。
并且目前业界主流互联网公司也都在用。
经过对比权衡,决定先期基于KMS框架搭建多维分析平台。
三、KMS框架介绍•整体介绍KMS=Kylin+Mondrian+Saiku是一个简单的三层架构,Git上已经有一个整合Kylin,Mondrian以及Saiku的项目。
Kylin:kylin是apache软件基金会的顶级项目,一个开源的分布式多维分析工具。
通过预计算所有合理的维度组合下各个指标的值并把计算结果存储到HBASE中的方式,大大提高分布式多维分析的查询效率。
Kylin接收sql查询语句作为输入,以查询结果作为输出。
通过预计算的方式,将在hive中可能需要几分钟的查询响应时间下降到毫秒级Mondrian:Mondrian是一个OLAP分析的引擎,主要工作是根据事先配置好的schema,将输入的多维分析语句MDX(MultidimensionalExpressions)翻译成目标数据库/数据引擎的执行语言(比如SQL)。
Saiku:Saiku提供了一个多维分析的用户操作界面,可以通过简单拖拉拽的方式迅速生成报表。
Saiku的主要工作是根据事先配置好的schema,将用户的操作转化成MDX语句提供给Mondrian引擎执行。
其中Mondrian和Saiku已经是非常成熟的框架,这里我们简单看下Kylin的架构。
•KylinApacheKylin™是一个开源的分布式分析引擎,提供Hadoop/Spark 之上的SQL查询接口及多维分析(OLAP)能力以支持超大规模数据,最初由eBayInc。
开发并贡献至开源社区。
它能在亚秒内查询巨大的Hive表。
Apachekylin能提供低延迟(sub-secondlatency)的秘诀就是预计算,即针对一个星型拓扑结构的数据立方体,预计算多个维度组合的度量,然后将结果保存在hbase中,对外暴露JDBC、ODBC、RestAPI 的查询接口,即可实现实时查询。
主要的使用包含3个步骤l通过Kylin提供的UI界面定义多维分析模型和Cube。
l对定义好的cube进行预计算,并将计算的结果存储到hbase中。
l查询时通过kylin引擎将查询的sql引擎翻译成hbase的scan等进行数据的查询。
更多关于kylin的案例、原理、调优大家可以参考kylin的官方网站和社区,并可以通过社区邮件进行问题交流。
四、多维分析平台的架构及应用情况•业务规划多维分析报表的创建,除了工具本身之外,对系统数据的处理和设计也是非常之重要,基于目前的使用,主要考虑以下几个问题1.多维报表的创建规划过程需要有一套数据分层划分模型,形成方法论、体系,以便指导业务人员进行报表的定义。
2.新的业务需求提出时,是基于现有报表增加维度还是增加一个新的报表。
3.多个报表由于业务需求,有重复的维度,重复的维度如何保证数据的一致性。
基于以上我们将数据和维度进行了层次划分,业务处理过程采用逐层汇总的方式,进行数据汇总,最后通过saiku进行查询展现。
数据分层结构如下:日志数据:主要包含充电过程中的分钟报文数据、智能运维的分钟报文数据,数据主要存在HBase、ES、TIDB明细数据:主要包含各种不同的业务订单数据。
数据主要存储在sqlserver、ES。
聚合数据:聚合数据为按照不同的业务维度进行聚合的数据。
比如:按照电站、结算账户等归集的充电数据。
数据主要存储在ES、Kylin。
公共维度:主要为系统共用的基础数据,比如电站、集控、终端数据。
数据公用。
•部署架构基于kylin的设计架构,我们充分利用现有的hbase集群和计算集群,搭建了基于KMS的多维分析平台,这里重点介绍一下我们的架构部署情况。
先看一下部署架构。
目前进入kylin的数据主要来自于sqlserver和kafka,通过kettle、flume等工具将数据抽取到离线计算集群hive数据库。
数据抽取到hive数据库之后,通过统一的调度工具调用Kylin的cube的buildAPI,按照业务需求对之前定义好的cube进行预计算,计算好的结果存储到hbase集群考虑到kylinbuild时占用资源较多,集群部署时,将kylin的build 节点和查询节点进行了分离。
目前build节点为一台,查询节点为2台。
Hbase集群目前和线上的业务公用。
前端展示saiku是个成熟的多维分析展现工具,对接的数据源有很多种,社区开源版本主要提供了kylin、mysql的支持。
在适应性上可以直接和kylin和tidb进行联通使用。
由于kylin查询节点部署了2台,为了充分使用saiku的缓存,在saiku 端开发了基于用户的负载均衡。
同时考虑到我们目前使用的集群,通过自定义开发实现了与ES集群的连通性。
•应用情况目前通过kylin定义的cube有20几个,最大的cube存储已经超过2T。
基于saiku定义的报表目前主要用于公司的运营、运维、充电安全相关的查询。
其中最大的查询维度已经接近100个。
系统应用截图如下解决的问题:1.为了保证saiku的HA同时充分利用saiku的缓存,开发了基于用户的负载均衡框架。
2.为了方便通过手机进行多维分析报表的简单修改,对saiku框架进行了修改,适配了手机。
3.对saiku的元数据增加了缓存,提高了查询速度。
4.修改了saiku对大小写的配置,适配kylin数据库。
5.参考kylin官方的案例和性能调优针对构建和查询过程进行优化。
五、总结及问题目前存在的问题1.多维分析集群查询对hbase的查询内存消耗较大,查询内存会引起gc,从而影响hbase的其他读写服务。
2.数据结构发生变化,历史数据需要重新刷,运维成本比较高。
3.历史数据发生变化,需要经常进行历史数据的刷新。
4.非聚合组的维度进行查询,部分查询较慢。
5.Saiku前端的灵活性和数据库能力的矛盾。
下一步的方向1.提升运维效率,在某些表上进行es的应用,提升报表的实时性,建立起不同等级的数据表不同的数据库的区分原则。
2.针对数据的日常刷新,开发简单的运维工具。