当前位置:文档之家› 大数据技术与应用基础课程学习大纲.doc

大数据技术与应用基础课程学习大纲.doc

大数据技术与应用基础课程学习大纲.doc
大数据技术与应用基础课程学习大纲.doc

《大数据技术与应用基础》教学大纲

学时:60

代码:

适用专业:

制定:

审核:

批准:

一、课程的地位、性质和任务

大数据技术的发展,已被列为国家重大发展战略。而在过去的几年里,无论是聚焦大数据发展的《促进大数据发展行动纲要》,还是《“十三五”规划》中都深刻体现了政府对大数据产业和应用发展的重视。目前国内大数据发展还处于加速期、转型期,数据与传统产业的融合还处于起步阶段,各行业对大数据分析和挖掘的应用还不理想。但随着市场竞争的加剧,各行业对大数据技术研究的热情越来越高,在未来几年,各领域的数据分析都将大规模应用。

本课程在注重大数据时代应用环境前提下,考虑大数据处理分析需求多样复杂的基本情况,从初学者角度出发,以轻量级理论、丰富的实例对比性地介绍大数据常用计算模式的各种系统和工具。考虑到当前大数据发展处于起步并逐步赶超先进的阶段,其应用领域丰富广泛,在教学过程中应注重掌握大数据分析的实践操作。本课程通过丰富简单易上手的实例,让学生能够切实体会和掌握各种类型工具的特点和应用。

二、课程教学基本要求

1. 了解大数据的发展和基本概念,理解并掌握大数据的特征及主要技术层面。

2. 掌握Scrapy环境的搭建,了解网络爬虫获取数据的过程,熟悉爬虫项目的创建。

3. 深刻了解hadoop的基础理论,理解并掌握Hadoop单机及集群环境的部署方法。

4. 掌握HDFS的基本概念和HDFS在hadoop中的作用,理解并识记HDFS的使用,了解HDFS的JAVA API接口及数据流原理;让学生明白Map过程与Reduce过程这两个独立部分各自的原理及合作途径,知道如何独立编写满足自己需求的MapReduce程序。

5. 理解HBase中涉及的基本概念,掌握HBase的简单应用;让学生了解数据仓库的基础概念,熟悉Hive与HDFS、MapReduce直接的关心。

6. 熟悉Spark和RDD的基本概念,熟悉spark接口的使用,解决实战时的步骤及思路。

7. 明白Hadoop和Storm之间的差别,掌握对Storm的使用。理解Apex的工作过程并能简单应用。

8. 了解Druid的基本概念、应用场景以及集群架构,掌握批量数据加载、流数据加载的操作。了解Flink的重要概念和基本架构,掌握Flink简单的使用实例。

9. 理解Elasticsearch的基本架构,掌握Elasticsearch的一些入门操作。了解并基本掌握怎样利用所学的工具对目标实例进行数据分析。

三、课程的内容

1.大数据概述

了解大数据的产生和发展,识记大数据的特征、数据类型和系统,大数据的计算模式和技术层面间的关联。

2.数据获取

识记基本概念,识记各功能应怎样用Scrapy爬虫实现,了解采集目标数据项定义,领会并掌握爬虫运行和数据存储技术。

3.Hadoop基础

领会Hadoop的主要特点,识记Hadoop HDFS、Hadoop MapReduce、Hadoop YARN的原理,了解其生态系统中重要组成的原理,熟悉Hadoop的配置。

4.HDFS基本应用

熟悉HDFS所需的API接口,了解数据流的工作过程,能简单操作HDFS的接口。

5.MapReduce应用开发

了解所需的开发环境eclipse,领会Map过程与Reduce过程的工作原理,了解使用mapreduce 解决实际问题时的步骤和思路,识记MapReduce代码的不同功能。

6.分布式数据库HBase

识记HBase的基本概念,熟悉安装HBase集群的步骤,了解HBaseAPI的基本步骤。

7.数据仓库工具Hive

领会Hive的作用,掌握Hive接口的使用,会利用Hive解决实战问题。

8.开源集群计算环境Spark

了解Spark的基本思想,熟悉Spark所需的环境及API等,熟悉Spark实战的完整工作过程,领会其所需的代码。

9.流实时处理系统Storm

识记Storm相关概念,掌握Storm环境的安装配置,了解Storm的基本使用

10.企业级、大数据流处理Apex

识记Apex的基本概念,掌握Apex的环境配置过程,理解常见组件的原理和特点,会简单的应用Apex解决问题。

11.事件流OLAP之Druid

了解Druid的概念及其应用场所,掌握Druid单机环境的安装方法和步骤,并能利用Druid进行加载流数据处理数据查询等。

12.事件数据流引擎Flink

识记Flink的基本概念,明白Flink的基本架构,能够安装Flink的单机和集群环境。

13.分布式文件搜索Elasticsearch

了解Elasticsearch包含重要部分的基本概念,掌握Elasticsearch重要的安装过程,掌握简单的操作。

14.实例电商数据分析

能够通过已经学习了解过的环境和工具等,有条理有步骤的对实例进行数据挖掘、数据处理和数据分析等,进而得出相关的结论。

四、课程的重点、难点

1.大数据概述

重点:大数据的概念和特征。

难点:大数据的计算模式和技术层面间的关联。

2.数据获取

重点:Scrapy环境的搭建。

难点:网络爬虫获取数据的过程。

3.Hadoop基础

重点:Hadoop的基础理论及安装。

难点:Hadoop单机及集群环境的部署方法。

4.HDFS基本应用

重点:掌握HDFS的两种使用方法。

5.MapReduce应用开发

重点:明白Map过程与Reduce过程的原理。

难点:独立编写满足自己需求的MapReduce程序。

6.分布式数据库HBase

重点:HBase所包含的3个重要组件的工作方式。

难点:如何通过HBase shell和HBase API访问HBase。

7.数据仓库工具Hive

重点:熟悉简单的Hive命令。

8.开源集群计算环境Spark

重点:理解Spark的工作机制。

难点:解决实战时的步骤及思路。

9.流实时处理系统Storm

重点:Storm的实时处理。

难点:利用Storm的特点对数据进行合适的处理。

10.企业级、大数据流处理Apex

重点:Apex的流处理功能。

11.事件流OLAP之Druid

重点:使用Druid进行加载和查询数据。

12.事件数据流引擎Flink

重点:明白Flink的基本架构。

难点:Flink系统中进程间处理信息的原理。

13.分布式文件搜索Elasticsearch

重点:Elasticsearch的基本架构。

14.实例电商数据分析

难点:怎样利用所学的工具对目标实例进行数据分析。

五、课时分配表

六、实验项目及基本要求

实验一通过爬虫获取数据

要求:能安装爬虫所需环境,创建简单的爬虫项目。成功完成爬虫核心实现。实验二 Hadoop安装与配置

要求:Hadoop单机和集群模式的配置。

实验三实战HDFS的接口

要求:能自主操作Java和命令行接口。

实验四编写简单的Mapreduce程序

要求:完成MapReduce所需环境的配置,完成Mapreduce应用实例

实验五分布式数据库HBase

要求:安装HBase集群模式,能简单使用HBase shell和Hbase API。

实验六 Hive的使用

要求:会进行简单的Hive命令使用,熟悉Hive的复杂语句。

实验七 Spark简单编程与聚类实战

要求:了解Spark简单的RDD创建,了解各个实战的编程实现及解决过程。

实验八 Storm安装与配置

要求:了解Storm的概念及原理,了解Storm的安装和基本使用。

实验九 Spark的使用和配置

要求:掌握Apex的使用,了解Apex的基本配置。

实验十 Druid环境配置

要求:了解Druid的概念和使用,理解Druid的作用。

实验十事件数据流引擎Flink的使用

要求:了解Flink的概念和部署过程,理解Flink的使用。

七、考核办法

1.考试采用统一命题,闭卷考试,考试时间为120分钟。

2.本大纲各部分所规定基本要求、知识点及知识点下的知识细目,都属于考核的内容。考试命题覆盖到各部分,并适当突出重点部分,加大重点内容的覆盖密度。

3.不同能力层次要求的分数比例大致为:识记占20%,领会占30%,简单应用占30%,综合应用占20%

4.题的难度可分为易、较易、较难和难四个等级。试卷中不同难度试题的分数比例一般为2:3:3:2 5.试题主要题型有:填空、单项选择、多选、简答、及综合应用等。

八、使用说明

在本课程学习中,应从“了解”、“识记”、“领会”、“简单应用”、“综合应用”五个能力层次去把握:

1. 了解:要求概念的基本掌握,是最基本要求。

2. 识记:要求能够识别和记忆本课程有关知识点的主要内容,并能够做出正确的表达、选择和判断。

3. 领会:在识记的基础上,要求能够领悟和理解本课程中有关知识点的内涵与外延,熟悉其内容要点和它们之间的区别与联系。并能够根据考核的不同要求,做出正确的解释、说明和论述。

4. 简单应用:在领会的基础上,要求能够运用本课程中少量知识点,分析和解决一般的应用问题。

5. 综合应用:在简单应用的基础上,要求能够运用本课程中多个知识点,综合分析和解决复杂的应用问题。

九、教材及参考书

大数据技术与应用基础人民邮电出版社陈志德主编 2017.1

教学

精品文档

大数据的概念、技术及应用

大数据的概念、技术及应用1 概述 1.1 大数据的概念和特点 1.1.1 大数据的基础 1.1.2 大数据如何“与时俱进”? 1.1.3 大数据发展趋势 人工智能 物联网结合 各个行业的深入 1.2 大数据的技术基础 1.2.1 从数据仓库开始 1.2.2 HADOOP 生态圈 1.2.3 与云计算的关系 1.2.4 数据运维能力提升 1.3 大数据的应用举例 1.3.1 大数据提升客户分析能力 1.3.2 大数据提升产品分析能力 1.3.3 大数据提升管理水平 1.3.4 大数据提升各行业“智慧” 1.4 大数据下的人工智能(AI) 1.4.1 什么是人工智能

1.4.2 人工智能改变哪些行业? 1.4.3 大数据下的人工智能有何不同? 1.4.4 人工智能的“颠覆” 1.5 大数据如何精细化管理 1.5.1 量化管理的引出 1.5.2 大数据如何提升“量化”的维度和深度1.5.3 从艺术到技术 1.5.4 自动驾驶到自动管理? 1.6 电信企业的大数据“商机” 1.6.1 从网络运营到数据运营 1.6.2 提炼“内功” 1.6.3 提升外部管理能力 1.6.4 扩展增值产品运营市场 2 大数据的行业解决方案应用案例 2.1 基础应用范围 2.2 石油行业应用案例 2.3 交通行业应用案例 2.4 旅游行业应用案例 2.5 金融行业应用案例 2.6 电信行业应用案例 2.7 互联网行业应用案例等

3 大数据技术基础 3.1 从数据仓库开始 3.1.1 数据仓库的“集中” 3.1.2 数据仓库的模型标准化3.1.3 大数据的演进 3.2 HADOOP 生态圈 3.2.1 开源社区概述 3.2.2 开源改变了什么?3.2.3 HADOOP 生态圈内容3.2.4 HADOOP 的技术原则3.2.5 HADOOP 的运维3.3 HADOOP 基础 3.3.1 HDFS 的原理 3.3.2 MAP/REDUCE 原理3.3.3 YARN 原理 3.4 HIVE/HBASE 技术 3.4.1 HIVE 的原理 3.4.2 HBASE 的原理 3.4.3 两者的关系 3.5 SPARK 技术 3.5.1 基本原理

林子雨大数据技术原理及应用第四章课后作业答案

大数据技术原理与应用第四章课后作业 黎狸 1.试述在Hadoop体系架构中HBase与其他组成部分的相互关系。 HBase利用Hadoop MapReduce来处理HBase中的海量数据,实现高性能计算;利用Zookeeper作为协同服务,实现稳定服务和失败恢复;使用HDFS作为高可靠的底层存储,利用廉价集群提供海量数据存储能力; Sqoop为HBase的底层数据导入功能,Pig 和Hive为HBase提供了高层语言支持,HBase是BigTable的开源实现。 2.请阐述HBase和BigTable的底层技术的对应关系。 3.请阐述HBase和传统关系数据库的区别。 4.HBase有哪些类型的访问接口? HBase提供了Native Java API , HBase Shell , Thrift Gateway , REST GateWay , Pig , Hive 等访问接口。 5.请以实例说明HBase数据模型。

6.分别解释HBase中行键、列键和时间戳的概念。 ①行键标识行。行键可以是任意字符串,行键保存为字节数组。 ②列族。HBase的基本的访问控制单元,需在表创建时就定义好。 ③时间戳。每个单元格都保存着同一份数据的多个版本,这些版本采用时间戳进行索 引。 7.请举个实例来阐述HBase的概念视图和物理视图的不同。 8.试述HBase各功能组件及其作用。 ①库函数:链接到每个客户端; ②一个Master主服务器:主服务器Master主要负责表和Region的管理工作; ③③许多个Region服务器:Region服务器是HBase中最核心的模块,负责存储和 维护分配给自己的Region,并响应用户的读写请求

大数据技术与应用基础教学大纲

大数据技术与应用基础》教学大纲 时:60 码: 适用专业: 定: 核: 准: 、课程的地位、性质和任务 大数据技术的发展,已被列为国家重大发展战略。而在过去的几年里,无论是聚焦大数据发展的《促进大数据发展行动纲要》,还是《“十三五”规划》中都深刻体现了政府对大数据产业和应用发展的重视。目前国内大数据发展还处于加速期、转型期,数据与传统产业的融合还处于起步阶段,各行业对大数据分析和挖掘的应用还不理想。但随着市场竞争的加剧,各行业对大数据技术研究的热情越来越高,在未来几年,各领域的数据分析都将大规模应用。 本课程在注重大数据时代应用环境前提下,考虑大数据处理分析需求多样复杂的基本情况,从初学者角度出发,以轻量级理论、丰富的实例对比性地介绍大数据常用计算模式

的各种系统和工具。考虑到当前大数据发展处于起步并逐步赶超先进的阶段,其应用领域 丰富广泛,在教学过程中应注重掌握大数据分析的实践操作。本课程通过丰富简单易上手 的实例,让学生能够切实体会和掌握各种类型工具的特点和应用。 、课程教学基本要求 1 . 了解大数据的发展和基本概念,理解并掌握大数据的特征及主要技术层面。 2 . 掌握Scrapy 环境的搭建,了解网络爬虫获取数据的过程,熟悉爬虫项目的创建。 3 . 深刻了解hadoop的基础理论,理解并掌握Hadoop单机及集群环境的部署方法。 4 . 掌握HDFS的基本概念和HDFS在hadoop中的作用,理解并识记HDFS勺使用,了解 HDFS的JAVA API接口及数据流原理;让学生明白Map过程与Reduce过程这两个独立部分各自的原理及合作途径,知道如何独立编写满足自己需求的Map Reduces序。 5.理解HBase中涉及的基本概念,掌握HBase的简单应用;让学生了解数据仓库的基 础概念,熟悉Hive与HDFS Map Reduced接的关心。 6.熟悉Spark和RDM基本概念,熟悉spark接口的使用,解决实战时的步骤及思路。 7.明白Hadoop和Storm之间的差别,掌握对Storm的使用。理解Apex的工作过程并能简单应用。 8. 了解Druid 的基本概念、应用场景以及集群架构,掌握批量数据加载、流数据加载 的操作。了解Flink 的重要概念和基本架构,掌握Flink 简单的使用实例。

大数据技术原理与应用-林子雨版-课后习题答案复习进程

大数据技术原理与应用-林子雨版-课后习 题答案

第一章 1.试述信息技术发展史上的3次信息化浪潮及具体内容。 2.试述数据产生方式经历的几个阶段 答:运营式系统阶段,用户原创内容阶段,感知式系统阶段。 3.试述大数据的4个基本特征 答:数据量大、数据类型繁多、处理速度快和价值密度低。 4.试述大数据时代的“数据爆炸”的特性 答:大数据时代的“数据爆炸”的特性是,人类社会产生的数据一致都以每年50%的速度增长,也就是说,每两年增加一倍。 5.数据研究经历了哪4个阶段? 答:人类自古以来在科学研究上先后历经了实验、理论、计算、和数据四种范式。 6.试述大数据对思维方式的重要影响 答:大数据时代对思维方式的重要影响是三种思维的转变:全样而非抽样,效率而非精确,相关而非因果。 7.大数据决策与传统的基于数据仓库的决策有什么区别 答:数据仓库具备批量和周期性的数据加载以及数据变化的实时探测、传播和加载能力,能结合历史数据和实时数据实现查询分析和自动规则触发,从而提供对战略决策和战术决策。 大数据决策可以面向类型繁多的、非结构化的海量数据进行决策分析。

8.举例说明大数据的基本应用 9.举例说明大数据的关键技术 答:批处理计算,流计算,图计算,查询分析计算 10.大数据产业包含哪些关键技术。 答:IT基础设施层、数据源层、数据管理层、数据分析层、数据平台层、数据应用层。 11.定义并解释以下术语:云计算、物联网 答:云计算:云计算就是实现了通过网络提供可伸缩的、廉价的分布式计算机能力,用户只需要在具备网络接入条件的地方,就可以随时随地获得所需的各种IT资源。 物联网是物物相连的互联网,是互联网的延伸,它利用局部网络或互联网等通信技术把传感器、控制器、机器、人类和物等通过新的方式连在一起,形成人与物、物与物相连,实现信息化和远程管理控制。

大数据分析技术与应用_实验2指导

目录 1实验主题 (1) 2实验目的 (1) 3实验性质 (1) 4实验考核方法 (1) 5实验报告提交日期与方式 (1) 6实验平台 (1) 7实验内容和要求 (1) 8实验指导 (2) 8.2 开启Hadoop所有守护进程 (2) 8.2 搭建Eclipse环境编程实现Wordcount程序 (3) 1.安装Eclipse (3) 2.配置Hadoop-Eclipse-Plugin (3) 3.在Eclipse 中操作HDFS 中的文件 (7) 4.在Eclipse 中创建MapReduce 项目 (8) 5.通过Eclipse 运行MapReduce (13) 6.在Eclipse 中运行MapReduce 程序会遇到的问题 (16)

1实验主题 1、搭建Hadoop、Eclipse编程环境 2、在Eclipse中操作HDFS 3、在Eclipse中运行Wordcount程序 4、参照Wordcount程序,自己编程实现数据去重程序 2实验目的 (1)理解Hadoop、Eclipse编程流程; (2)理解MapReduce架构,以及分布式编程思想; 3实验性质 实验上机内容,必做,作为课堂平时成绩。 4实验考核方法 提交上机实验报告,纸质版。 要求实验报告内容结构清晰、图文并茂。 同学之间实验报告不得相互抄袭。 5实验报告提交日期与方式 要求提交打印版,4月19日(第10周)之前交到软件学院412。 6实验平台 操作系统:Linux Hadoop版本:2.6.0或以上版本 JDK版本:1.6或以上版本 Java IDE:Eclipse 7实验内容和要求 (1)搭建Hadoop、Eclipse编程环境; (2)运行实验指导上提供的Wordcount程序; (3)在Eclipse上面查看HDFS文件目录; (4)在Eclipse上面查看Wordcount程序运行结果; (5)熟悉Hadoop、Eclipse编程流程及思想; 程序设计题,编程实现基于Hadoop的数据去重程序,具体要求如下: 把data1文件和data2文件中相同的数据删除,并输出没有重复的数据,自己动手实现,把代码贴到实验报告的附录里。 设计思路: 数据去重实例的最终目标是让原始数据中出现次数超过一次的数据在输出文件中只出现一次。具体就是Reduce的输入应该以数据作为Key,而对value-list则没有要求。当Reduce 接收到一个时就直接将key复制到输出的key中,并将value设置成空值。在MapReduce流程中,Map的输出 经过shuffle过程聚集成后会被交给Reduce。所以从设计好的Reduce输入可以反推出Map输出的key应为数据,而

大数据技术与应用基础_教学大纲

《大数据技术与应用基础》教学大纲 学时:60 代码: 适用专业: 制定: 审核: 批准: 一、课程的地位、性质和任务 大数据技术的发展,已被列为国家重大发展战略。而在过去的几年里,无论是聚焦大数据发展的《促进大数据发展行动纲要》,还是《“十三五”规划》中都深刻体现了政府对大数据产业和应用发展的重视。目前国内大数据发展还处于加速期、转型期,数据与传统产业的融合还处于起步阶段,各行业对大数据分析和挖掘的应用还不理想。但随着市场竞争的加剧,各行业对大数据技术研究的热情越来越高,在未来几年,各领域的数据分析都将大规模应用。 本课程在注重大数据时代应用环境前提下,考虑大数据处理分析需求多样复杂的基本情况,从初学者角度出发,以轻量级理论、丰富的实例对比性地介绍大数据常用计算模式的各种系统和工具。考虑到当前大数据发展处于起步并逐步赶超先进的阶段,其应用领域丰富广泛,在教学过程中应注重掌握大数据分析的实践操作。本课程通过丰富简单易上手的实例,让学生能够切实体会和掌握各种类型工具的特点和应用。 二、课程教学基本要求 1. 了解大数据的发展和基本概念,理解并掌握大数据的特征及主要技术层面。 2. 掌握Scrapy环境的搭建,了解网络爬虫获取数据的过程,熟悉爬虫项目的创建。 3. 深刻了解hadoop的基础理论,理解并掌握Hadoop单机及集群环境的部署方法。 4. 掌握HDFS的基本概念和HDFS在hadoop中的作用,理解并识记HDFS的使用,了解HDFS 的JAVA API接口及数据流原理;让学生明白Map过程与Reduce过程这两个独立部分各自的原理及合作途径,知道如何独立编写满足自己需求的MapReduce程序。 5. 理解HBase中涉及的基本概念,掌握HBase的简单应用;让学生了解数据仓库的基础概念,熟悉Hive与HDFS、MapReduce直接的关心。 6. 熟悉Spark和RDD的基本概念,熟悉spark接口的使用,解决实战时的步骤及思路。

(完整版)大数据技术原理与应用林子雨版课后习题答案

第一章 1.试述信息技术发展史上的3次信息化浪潮及具体内容。 2.试述数据产生方式经历的几个阶段 答:运营式系统阶段,用户原创内容阶段,感知式系统阶段。 3.试述大数据的4个基本特征 答:数据量大、数据类型繁多、处理速度快和价值密度低。 4.试述大数据时代的“数据爆炸”的特性 答:大数据时代的“数据爆炸”的特性是,人类社会产生的数据一致都以每年50%的速度增长,也就是说,每两年增加一倍。 5.数据研究经历了哪4个阶段?

答:人类自古以来在科学研究上先后历经了实验、理论、计算、和数据四种范式。 6.试述大数据对思维方式的重要影响 答:大数据时代对思维方式的重要影响是三种思维的转变:全样而非抽样,效率而非精确,相关而非因果。 7.大数据决策与传统的基于数据仓库的决策有什么区别 答:数据仓库具备批量和周期性的数据加载以及数据变化的实时探测、传播和加载能力,能结合历史数据和实时数据实现查询分析和自动规则触发,从而提供对战略决策和战术决策。 大数据决策可以面向类型繁多的、非结构化的海量数据进行决策分析。 8.举例说明大数据的基本应用 答: 9.举例说明大数据的关键技术

答:批处理计算,流计算,图计算,查询分析计算 10.大数据产业包含哪些关键技术。 答:IT基础设施层、数据源层、数据管理层、数据分析层、数据平台层、数据应用层。 11.定义并解释以下术语:云计算、物联网 答:云计算:云计算就是实现了通过网络提供可伸缩的、廉价的分布式计算机能力,用户只需要在具备网络接入条件的地方,就可以随时随地获得所需的各种IT资源。 物联网是物物相连的互联网,是互联网的延伸,它利用局部网络或互联网等通信技术把传感器、控制器、机器、人类和物等通过新的方式连在一起,形成人与物、物与物相连,实现信息化和远程管理控制。 12.详细阐述大数据、云计算和物联网三者之间的区别与联系。

大数据技术与应用专业人才培养方案

附件: 2017年大数据技术与及用人才培养方案 一、培养目标 本专业培养适应生产、建设、服务和管理第一线需要的,德、智、体、美等方面全面发展的,具有大数据行业对应岗位必备的科学文化知识及相关专业知识,以大数据系统运维与管理、数据处理、数据分析、应用系统开发能力为目标,系统掌握大数据技术与应用专业基本理论、大数据分析挖掘与处理、移动开发与架构、软件开发、云计算技术等前沿技术,旨在培养适应新形势下新兴的“互联网+”专业,具有良好职业道德和敬业精神的高素质技能型专门人才。 二、学制及招生对象 (一)学制:三年 (二)招生对象:高中毕业生和中职毕业生 三、人才培养规格 (一)职业面向、预期工作岗位名称 1.主要岗位 本专业大数据基础类岗位:大数据文档编写、大数据采集清洗与转换; 大数据技术类岗位:大数据系统搭建与运维、海量数据库管理、大数据软件开发、大数据可视化、大数据分析; 2.相关岗位 大数据销售服务类岗位:大数据营销、大数据呼叫、大数据售后服务。 3.进阶岗位 大数据技术公司管理岗位和高级技术岗位 (二)起薪标准 4500元/月 (三)人才质量标准 1.知识要求 毕业生应具有大数据技术与应用专业必要的基础理论知识,掌握从事本专业领域实际工作的基本能力和基本技能;具备适应生产、管理、服务一线岗位需要的工作能力,具备良好的职业道德与素养。

①掌握本专业培养目标所要求的基础理论知识、专业知识和技能; ②具备一定的英语知识,能够借助工具书阅读理解本专业所使用的常用计算机英语, 包括技术性文档和资料; ③掌握计算机方面的专业基础知识,能适应信息化建设; ④掌握Linux平台下大数据平台搭建,数据库系统搭建、优化、管理等方面的专业技 能; ⑤掌握大数据技术与应用专业基本的专业技能,能满足大数据岗位的基本素质。 2.能力要求 通过三年的学习,学生应具备从事本专业领域相关工作的能力。 ①熟练操作办公自动化软件; ②具备计算机组装、计算机软硬件故障的判断与定位以及故障排除的能力。 ③具备办公自动化设备维护的能力;具备数据库系统管理维护的能力; ④具备非结构化数据处理能力; ⑤具备数据仓库管理基本能力; ⑥具备OOP程序设计能力; ⑦具备Web应用开发能力; ⑧具备Linux Server、Hadoop项目管理维护的能力; ⑨具备数据挖掘、数据清洗、数据可视化的处理能力。 3.素质要求 ①政治思想素质: 热爱祖国,拥护党的基本路线。遵纪守法,善于独立思考,勇于创新的精神。具备良好的职业道德与素养。 ②文化素质: 具有一定的文化素质修养,诚实守信、礼貌待人、为人谦逊的文明习惯;具有自尊自强、爱岗敬业、勤奋好学、追求进步的品格;具备良好的人际交往与勾通和工作协调能力。 ③业务素质: 掌握大数据技术与应用专业的基础理论知识;掌握计算机组装与维护、办公自动化软件操作、办公自动化设备维护、计算机网络系统维护及管理、关系型/非关系型数据库系统维护及管理、Windows/Linux服务器系统配置管理等方面、各类大数据平台搭建管理维护的专业技能的能力。

大数据技术原理与应用 林子雨版 课后习题答案(精编文档).doc

【最新整理,下载后即可编辑】 第一章 1.试述信息技术发展史上的3次信息化浪潮及具体内容。 2.试述数据产生方式经历的几个阶段 答:运营式系统阶段,用户原创内容阶段,感知式系统阶段。

3.试述大数据的4个基本特征 答:数据量大、数据类型繁多、处理速度快和价值密度低。 4.试述大数据时代的“数据爆炸”的特性 答:大数据时代的“数据爆炸”的特性是,人类社会产生的数据一致都以每年50%的速度增长,也就是说,每两年增加一倍。 5.数据研究经历了哪4个阶段? 答:人类自古以来在科学研究上先后历经了实验、理论、计算、和数据四种范式。 6.试述大数据对思维方式的重要影响 答:大数据时代对思维方式的重要影响是三种思维的转变:全样而非抽样,效率而非精确,相关而非因果。 7.大数据决策与传统的基于数据仓库的决策有什么区别 答:数据仓库具备批量和周期性的数据加载以及数据变化的实时探测、传播和加载能力,能结合历史数据和实时数据实现查询分析和自动规则触发,从而提供对战略决策和战术决策。 大数据决策可以面向类型繁多的、非结构化的海量数据进行决策分析。

8.举例说明大数据的基本应用 答: 9.举例说明大数据的关键技术 答:批处理计算,流计算,图计算,查询分析计算 10.大数据产业包含哪些关键技术。 答:IT基础设施层、数据源层、数据管理层、数据分析层、数据平台层、数据应用层。

11.定义并解释以下术语:云计算、物联网 答:云计算:云计算就是实现了通过网络提供可伸缩的、廉价的分布式计算机能力,用户只需要在具备网络接入条件的地方,就可以随时随地获得所需的各种IT资源。 物联网是物物相连的互联网,是互联网的延伸,它利用局部网络或互联网等通信技术把传感器、控制器、机器、人类和物等通过新的方式连在一起,形成人与物、物与物相连,实现信息化和远程管理控制。 12.详细阐述大数据、云计算和物联网三者之间的区别与联系。

《大数据分析方法与应用》教学大纲

《大数据分析方法与应用》课程教学大纲 课程代码:090542008 课程英文名称:Big Data Analysis: Methods and Applications 课程总学时:40 讲课:40 实验:0 上机:0 适用专业:应用统计学 大纲编写(修订)时间:2017.6 一、大纲使用说明 (一)课程的地位及教学目标 本课程是应用统计学专业的一门专业课,通过本课程的学习,可以使学生学会选用适当的方法和技术分析数据,领会大数据分析方法和应用,掌握复杂数据的分析与建模,使学生能够按照实证研究的规范和数据挖掘的步骤进行大数据研发,为就业与继续深造打下必要而有用的基础。 (二)知识、能力及技能方面的基本要求 1.基本知识:掌握数据挖掘流程、随机森林树的回归算法、基于预测强度的聚类方法、朴素贝叶斯分类、高维回归及变量选择、图模型等。 2.基本能力:要求能在真实案例中应用相应的方法。 3.基本技能:掌握复杂数据的分析与建模。 (三)实施说明 1. 本大纲主要依据应用统计学专业2017版教学计划、应用统计学专业专业建设和特色发展规划和沈阳理工大学编写本科教学大纲的有关规定并根据我校实际情况进行编写的。 2. 课程学时总体分配表中的章节序号在授课过程中可酌情调整顺序,课时分配仅供参考。打“*”号的章节可删去或选学。 3. 建议本课程采用课堂讲授、讨论相结合的方法开展教学,通过讨论等方式强化重点,通过分散难点,使学生循序渐进的掌握难点。 4.教学手段:建议采用多媒体等现代化手段开展教学。 (四)对先修课的要求 本课程的先修课程:应用多元统计分析。 (五)对习题课、实践环节的要求 通过案例讲解算法,鼓励学生演示分析思路和分析收获,使学生有机会诊断问题,并学会选用适当的方法和技术分析数据。 (六)课程考核方式 1.考核方式:考查 2.考核目标:在考核学生基础知识、基本技能,基本能力的基础上,重点考核学生的分析能力、解决实际问题能力。 3.成绩构成:本课程由平时成绩和结课报告的质量评定优、良、中、及格和不及格。 (七)参考书目: 《大数据分析:方法与应用》,王星编,清华大学出版社,2013. 二、中文摘要 《大数据分析方法与应用》是高等学校应用统计学专业的一门选修的专业课。本课程着重介绍了统计学习、数据挖掘和模式识别等领域的各种大数据分析方法。课程主要内容包括大数据分析概述、数据挖掘流程、随机森林树、基于预测强度的聚类方法、贝叶斯分类和因果学习、高

大数据技术原理及应用

大数据技术原理及应用 (总10页) -CAL-FENGHAI.-(YICAI)-Company One1 -CAL-本页仅作为文档封面,使用请直接删除

大数据技术原理及应用 大数据处理架构—Hadoop简介 Hadoop项目包括了很多子项目,结构如下图 Common 原名:Core,包含HDFS, MapReduce和其他公共项目,从Hadoop 版本后,HDFS和MapReduce分离出去,其余部分内容构成Hadoop Common。Common为其他子项目提供支持的常用工具,主要包括文件系统、RPC(Remote procedure call) 和串行化库。 Avro Avro是用于数据序列化的系统。它提供了丰富的数据结构类型、快速可压缩的二进制数据格式、存储持久性数据的文件集、远程调用RPC的功能和简单的动态语言集成功能。其中,代码生成器既不需要读写文件数据,也不需要使用或实现RPC协议,它只是一个可选的对静态类型语言的实现。Avro系统依赖于模式(Schema),Avro数据的读和写是在模式之下完成的。这样就可以减少写入数据的开销,提高序列化的速度并缩减其大小。 Avro 可以将数据结构或对象转化成便于存储和传输的格式,节约数据存储空间和网络传输带宽,Hadoop 的其他子项目(如HBase和Hive)的客户端和服务端之间的数据传输。 HDFS HDFS:是一个分布式文件系统,为Hadoop项目两大核心之一,是Google file system(GFS)的开源实现。由于HDFS具有高容错性(fault-tolerant)的特点,所以可以设计部署在低廉(low-cost)的硬件上。它可以通过提供高吞吐率(high throughput)来访问应用程序的数据,适合那些有着超大数据集的应

大数据处理技术的总结与分析

数据分析处理需求分类 1 事务型处理 在我们实际生活中,事务型数据处理需求非常常见,例如:淘宝网站交易系统、12306网站火车票交易系统、超市POS系统等都属于事务型数据处理系统。这类系统数据处理特点包括以下几点: 一就是事务处理型操作都就是细粒度操作,每次事务处理涉及数据量都很小。 二就是计算相对简单,一般只有少数几步操作组成,比如修改某行得某列; 三就是事务型处理操作涉及数据得增、删、改、查,对事务完整性与数据一致性要求非常高。 四就是事务性操作都就是实时交互式操作,至少能在几秒内执行完成; 五就是基于以上特点,索引就是支撑事务型处理一个非常重要得技术. 在数据量与并发交易量不大情况下,一般依托单机版关系型数据库,例如ORACLE、MYSQL、SQLSERVER,再加数据复制(DataGurad、RMAN、MySQL数据复制等)等高可用措施即可满足业务需求。 在数据量与并发交易量增加情况下,一般可以采用ORALCERAC集群方式或者就是通过硬件升级(采用小型机、大型机等,如银行系统、运营商计费系统、证卷系统)来支撑. 事务型操作在淘宝、12306等互联网企业中,由于数据量大、访问并发量高,必然采用分布式技术来应对,这样就带来了分布式事务处理问题,而分布式事务处理很难做到高效,因此一般采用根据业务应用特点来开发专用得系统来解决本问题。

2数据统计分析 数据统计主要就是被各类企业通过分析自己得销售记录等企业日常得运营数据,以辅助企业管理层来进行运营决策。典型得使用场景有:周报表、月报表等固定时间提供给领导得各类统计报表;市场营销部门,通过各种维度组合进行统计分析,以制定相应得营销策略等. 数据统计分析特点包括以下几点: 一就是数据统计一般涉及大量数据得聚合运算,每次统计涉及数据量会比较大。二就是数据统计分析计算相对复杂,例如会涉及大量goupby、子查询、嵌套查询、窗口函数、聚合函数、排序等;有些复杂统计可能需要编写SQL脚本才能实现. 三就是数据统计分析实时性相对没有事务型操作要求高。但除固定报表外,目前越来越多得用户希望能做做到交互式实时统计; 传统得数据统计分析主要采用基于MPP并行数据库得数据仓库技术.主要采用维度模型,通过预计算等方法,把数据整理成适合统计分析得结构来实现高性能得数据统计分析,以支持可以通过下钻与上卷操作,实现各种维度组合以及各种粒度得统计分析。 另外目前在数据统计分析领域,为了满足交互式统计分析需求,基于内存计算得数据库仓库系统也成为一个发展趋势,例如SAP得HANA平台。 3 数据挖掘 数据挖掘主要就是根据商业目标,采用数据挖掘算法自动从海量数据中发现隐含在海量数据中得规律与知识。

大数据技术与应用专业详细解读

大数据技术与应用专业详细解读 大数据技术与应用专业是新兴的“互联网+”专业,大数据技术与应用专业将大数据分析挖掘与处理、移动开发与架构、人软件开发、云计算等前沿技术相结合,并引入企业真实项目演练,依托产学界的雄厚师资,旨在培养适应新形势,具有最新思维和技能的“高层次、实用型、国际化”的复合型大数据专业人才。 专业背景 近几年来,互联网行业发展风起云涌,而移动互联网、电子商务、物联网以及社交媒体的快速发展更促使我们快速进入了大数据时代。截止到目前,人们日常生活中的数据量已经从TB(1024GB=1TB)级别一跃升到PB(1024TB=1PB)、EB(1024PB=1EB)乃至ZB(1024EB=1ZB)级别,数据将逐渐成为重要的生产因素,人们对于海量数据的运用将预示着新一波生产率增长和消费者盈余浪潮的到来。大数据时代,专业的大数据人才必将成为人才市场上的香饽饽。当下,大数据从业人员的两个主要趋势是:1、大数据领域从业人员的薪资将继续增长;2、大数据人才供不应求。 图示说明:2012-2020年全球数据产生量预测 专业发展现状 填补大数据技术与应用专业人才巨大缺口的最有效办法无疑还需要依托众多的高等院校来培养输送,但互联网发展一日千里,大数据技术、手段日新月异,企业所需要的非常接地气的人才培养对于传统以培养学术型、科研型人才为主要使命的高校来说还真有些难度。幸好这个问题已经被全社会关注,政府更是一再提倡产教融合、校企合作来创办新型前沿几

乎以及“互联网+”专业方向,也已经有一些企业大胆开始了这方面的创新步伐。据我了解,慧科教育就是一家最早尝试高校校企合作的企业,其率先联合各大高校最早开设了互联网营销,这也是它们的优势专业,后来慧科教育集团又先后和北京航空航天大学、对外经济贸易大学、贵州大学、华南理工大学、宜春学院、广东开放大学等高校在硕、本、专各个层次开设了大数据专业方向,在课程体系研发、教学授课及实训实习环节均有来自BAT以及各大行业企业一线的技术大拿参与,所培养人才能够很好地满足企业用人需求。 专业示例 笔者在对慧科教育的大数据技术与应用专业做了专门研究,共享一些主要特色给大家参考: 1.培养模式 采用校企联合模式,校企双方(即慧科教育集团和合作校方)发挥各自优势,在最大限度保证院校办学特色及专业课程设置的前提下,植入相应前沿科技及特色人才岗位需求的企业课程。 2.课程体系 笔者对慧科教育的大数据技术与应用做了专门研究,现分享一下慧科专业共建的课程给大家参考。慧科教育集团的专业课程重在培养学生的理论知识和动手实践能力,学生在完成每个学期的理论学习后,至少有两个企业项目实战跟进,让学生在项目中应用各类大数据技术,训练大数据思路和实践步骤,做到理论与实践的充分结合。 大数据专业的课程体系包括专业基础课、专业核心课、大数据架构设计、企业综合实训等四个部分。

大数据技术与应用基础_教学大纲.doc

《大数据技术与应用基础》教学大纲 学时: 60 代码: 适用专业: 制定: 审核: 批准: 一、课程的地位、性质和任务 大数据技术的发展,已被列为国家重大发展战略。而在过去的几年里,无论是聚焦大数据发展 的《促进大数据发展行动纲要》,还是《“十三五”规划》中都深刻体现了政府对大数据产业和应用 发展的重视。目前国内大数据发展还处于加速期、转型期,数据与传统产业的融合还处于起步阶段,各 行业对大数据分析和挖掘的应用还不理想。但随着市场竞争的加剧,各行业对大数据技术研究的 热情越来越高,在未来几年,各领域的数据分析都将大规模应用。 本课程在注重大数据时代应用环境前提下,考虑大数据处理分析需求多样复杂的基本情况,从 初学者角度出发,以轻量级理论、丰富的实例对比性地介绍大数据常用计算模式的各种系统和工具。 考虑到当前大数据发展处于起步并逐步赶超先进的阶段,其应用领域丰富广泛,在教学过程中应注 重掌握大数据分析的实践操作。本课程通过丰富简单易上手的实例,让学生能够切实体会和掌握各 种类型工具的特点和应用。 二、课程教学基本要求 1.了解大数据的发展和基本概念,理解并掌握大数据的特征及主要技术层面。 2.掌握 Scrapy 环境的搭建,了解网络爬虫获取数据的过程,熟悉爬虫项目的创建。 3.深刻了解 hadoop 的基础理论,理解并掌握 Hadoop 单机及集群环境的部署方法。 4.掌握 HDFS 的基本概念和 HDFS 在 hadoop 中的作用,理解并识记 HDFS 的使用,了解HDFS的JAVA API 接口及数据流原理;让学生明白Map 过程与 Reduce过程这两个独立部分各自的原理及合作途径,知道如何独立编写满足自己需求的MapReduce程序。 5.理解 HBase 中涉及的基本概念,掌握 HBase 的简单应用;让学生了解数据仓库的基础概念,熟 悉 Hive 与 HDFS 、 MapReduce 直接的关心。 6. 熟悉 Spark 和 RDD 的基本概念,熟悉spark 接口的使用,解决实战时的步骤及思路。 7. 明白 Hadoop 和 Storm 之间的差别,掌握对Storm 的使用。理解 Apex 的工作过程并能简单应用。 8.了解 Druid 的基本概念、应用场景以及集群架构,掌握批量数据加载、流数据加载的操作。 了解 Flink的重要概念和基本架构,掌握Flink简单的使用实例。 9.理解Elasticsearch的基本架构,掌握Elasticsearch的一些入门操作。了解并基本掌握怎样利用所学的工具对目标实例进行数据分析。 三、课程的内容 1.大数据概述

大数据分析及其技术的关键

大数据分析及其技术的关键 关于大数据分析,现实的情况是,说的人很多,鼓吹其神奇价值的喧嚣声浪很高,却鲜见其实际运用得法的模式和方法。造成这种窘境的原因无外乎有二:一是对于大数据分析的价值逻辑尚缺乏足够深刻的洞察;二是大数据分析中的某些重大要件或技术还不成熟。 比如,提到大数据的大,一般人认为指的是它数据规模的海量――随着人类在数据记录、获取及传输方面的技术革命,造成了数据获得的便捷与低成本,这便使原有的以高成本方式获得的、描述人类态度或行为的、数据有限的小数据变成了一个巨大的、海量规模的数据包。这其实是一种不得要领、似是而非的认识。其实,前大数据时代也有海量的数据集,但由于其维度的单一,以及和人或社会有机活动状态的剥离,而使其分析和认识真相的价值极为有限。大数据的真正价值不在于它的大,而在于它的全――空间维度上的多角度、多层次信息的交叉复现;时间维度上的与人或社会有机体的活动相关联的信息的持续呈现。 以数据的交叉复现对于还原真相的价值为例:一个家住北京的男人借去杭州出差的机会到上海与情人幽会,回到北京后怕被老婆发现把相关的短信、微信、通话记录统统都删

除掉,但他老婆如果掌握了大数据分析方法的话便很容易获得真相:查询酒店的开房记录、刷卡消费的记录、甚至他在上海期间一不留神转发的一条微博都可能透露出的位置信息。正如《大数据时代》中所引述的,一个孕妇的口味及消费模式等是有一定规律的,单一一条信息并不足以判定你的状态,但关于你的不同来源的数据集合一旦与孕妇特型(如果我们掌握了这个分析模型的话)高度相关,人们便很容易对你的真实状态进行一种准确的判断而不管你自己承认或者不承认。 再举个例子,面对今天社会舆情态势,常常有人感慨:“造谣的成本很低,辟谣的成本却很高”,抱怨现在的网络给造谣者造谣、传谣带来的极大便利以及人民群众过于轻信和弱智。如果我们用某个事件的数据、单一的和静态截面上的数据去观察和分析这个问题的时候,真的可能得出上述这样一种结论。但是,如果我们从社会传播的总体信息构造上分析,会发现流言或谣言的猖獗不正在于掌握了社会信息传播主渠道的那些部门的不作为、甚至蒙蔽真相所造成的吗?再有,或许你在这个地方、这件事上没有蒙蔽真相,道出的是实情;但如果你或你的同类机构、同类官员在其他事情、其他场合上有过种种蒙蔽真相、文过饰非、官官相护甚至动用官方的强力以“辟谣”的方式制造假象的劣迹,人民群众在一次次被蒙蔽甚至被欺骗后,还会一如既往地相信你、依

大数据技术原理与应用

一:判断题(每小题 5 分)
1:Pig 是一个基于 Hadoop 的大规模数据分析平台,它为复杂的海量数据并行 计算提供了一个简单的操作和编程接口。
A:对 B:错 ? 答案:A ? 正确 2:所有的 MapReduce 程序都需要经过 Map 和 Reduce 这两个过程 A:对 B:错 ? 答案:B ? 错误 3:一般而言,分布式数据库是指物理上分散在不同地点,但在逻辑上是统一 的数据库。因此分布式数据库具有物理上的独立性、逻辑上的一体性、性能 上的可扩展性等特点。 A:对 B:错 ? 答案:A ? 正确

4:简单随机抽样,是从总体 N 个对象中任意抽取 n 个对象作为样本,最终 以这些样本作为调查对象。在抽取样本时,总体中每个对象被抽中为调查样 本的概率可能会有差异。
A:对 B:错 ? 答案:B ? 错误 5:信息生命周期管理是据生命周期管理的来源,最早由英国企业提出。 A:对 B:错 ? 答案:B ? 错误
二:单选题(每小题 5 分)
6:YARN 的 http 端口默认是______
A80 B8080 C 8090 D8088 ABCD ? 答案:D ? 错误
7:HBase 系统基本架构中主服务器 Master 的作用是______

A 包含访问 HBase 的接口,同时在缓存中维护着已经访问过的 Region 位置 信息,用来加快后续数据访问过程 B 可以帮助选举出一个 Master 作为集群 的总管,并保证在任何时刻总有唯一一个 Master 在运行 C 主要负责表和 Region 的管理工作 D 是 HBase 中最核心的模块,负责维护分配给自己的 Region,并响应用户的读写请求
ABCD
? 答案:C ? 错误
8:支撑大数据业务的基础是______
A 数据科学 B 数据应用 C 数据硬件 D 数据人才 ABCD
? 答案:B ? 错误
9:Heartbeat 间隔默认______
A1S B2S C3S D4S ABCD
? 答案:C ? 错误
10:下列关于 Hadoop API 的说法错误的是______

大数据及其智能处理技术

云计算环境下大数据及其智能处理技术 1、什么是大数据 “大数据”“是一个体量特别大,数据类别特别大的数据集,并且这样的数据集无法用传统数据库工具对其内容进行抓取、管理和处理。“大数据”首先是指数据体量(volumes) 大,指代大型数据集,一般在10TB 规模左右,但在实际应用中,很多企业用户把多个数据集放在一起,已经形成了PB级的数据量;其次是指数据类别(variety)大,数据来自多种数据源,数据种类和格式日渐丰富,已冲破了以前所限定的结构化数据范畴,囊括了半结构化和非结构化数据。 IBM将大数据归纳未三个标准,即3V:类型(variety)、数量(volume)和速度(velocity)。其中类型(variety)指数据中有结构化、半结构化和非结构化等多种数据形式;数量(volume)指收集和分析的数据量非常大;速度(velocity)指数据处理速度要足够快。 大数据对于悲观者而言,意味着数据存储世界的末日,对乐观者而言,这里孕育了巨大的市场机会,庞大的数据就是一个信息金矿,随着技术的进步,其财富价值将很快被我们发现,而且越来越容易。大数据本身是一个现象而不是一种技术,伴随着大数据的采集、传输、处理和应用的相关技术就是大数据处理技术,是系列使用非传统的工具来对大量的结构化、半结构化和非结构化数据进行处理,从而获得分析和预测结果的一系列数据处理技术。 2、“大数据”的缘由 根据IDC作出的估测,数据一直都在以每年50%的速度增长,也就是说每两年就增长一倍(大数据摩尔定律),这意味着人类在最近两年产生的数据量相当于之前产生的全部数据量,预计到2020年,全球将总共拥有35亿GB的数据量,相较于2010年,数据量将增长近30倍。这不是简单的数据增多的问题,而是全新的问题。举例来说,在当今全球范围内的工业设备、汽车、电子仪表和装运箱中,都有着无数的数字传感器,这些传感器能测量和交流位置、运动、震动、温

大数据技术与应用专业深度解析(含课程说明、师资介绍)资料

大数据技术与应用专业深度解析(含课程说明、师资介绍) 大数据技术与应用专业是是新兴的“互联网+”专业,该专业将大数据分析挖掘与处理、移动开发与架构、人软件开发、云计算等前沿技术相结合,并引入企业真实项目演练,依托产学界的雄厚师资,旨在培养适应新形势,具有最新思维和技能的“高层次、实用型、国际化”的复合型大数据技术与应用专业人才。 专业背景 近几年来,互联网行业发展风起云涌,而移动互联网、电子商务、物联网以及社交媒体的快速发展更促使我们快速进入了大数据时代。截止到目前,人们日常生活中的数据量已经从TB(1024GB=1TB)级别一跃升到PB(1024TB=1PB)、EB(1024PB=1EB)乃至ZB(1024EB=1ZB)级别,数据将逐渐成为重要的生产因素,人们对于海量数据的运用将预示着新一波生产率增长和消费者盈余浪潮的到来。大数据时代,专业的大数据人才必将成为人才市场上的香饽饽。当下,大数据从业人员的两个主要趋势是:1、大数据领域从业人员的薪资将继续增长;2、大数据人才供不应求。 图示说明:2012-2020年全球数据产生量预测 专业发展现状 填补大数据技术与应用专业人才巨大缺口的最有效办法无疑还需要依托众多的高等院校来培养输送,但互联网发展一日千里,大数据技术、手段日新月异,企业所需要的非常接地气的人才培养对于传统以培养学术型、科研型人才为主要使命的高校来说还真有些难度。幸好这个问题已经被全社会关注,政府更是一再提倡产教融合、校企合作来创办新型前沿几

乎以及“互联网+”专业方向,也已经有一些企业大胆开始了这方面的创新步伐。据我了解,慧科教育就是一家最早尝试高校校企合作的企业,其率先联合各大高校最早开设了互联网营销,这也是它们的优势专业,后来慧科教育集团又先后和北京航空航天大学、对外经济贸易大学、贵州大学、华南理工大学、宜春学院、广东开放大学等高校在硕、本、专各个层次开设了大数据技术与应用专业方向,在课程体系研发、教学授课及实训实习环节均有来自BAT 以及各大行业企业一线的技术大拿参与,所培养人才能够很好地满足企业用人需求。 专业示例 笔者在对慧科教育的大数据技术与应用专业做了专门研究,共享一些主要特色给大家参考: 1.培养模式 采用校企联合模式,校企双方(即慧科教育集团和合作校方)发挥各自优势,在最大限度保证院校办学特色及专业课程设置的前提下,植入相应前沿科技及特色人才岗位需求的企业课程。 2.课程体系 笔者对慧科教育的大数据技术与应用专业做了专门研究,现分享一下慧科专业共建的课程给大家参考。慧科教育集团的专业课程重在培养学生的理论知识和动手实践能力,学生在完成每个学期的理论学习后,至少有两个企业项目实战跟进,让学生在项目中应用各类大数据技术,训练大数据思路和实践步骤,做到理论与实践的充分结合。 大数据技术与应用专业的课程体系包括专业基础课、专业核心课、大数据架构设计、企业综合实训等四个部分。

大数据技术与应用基础_教学大纲

大数据技术与应用基础》教学大纲 学时:60 代码: 适用专业: 制定: 审核: 批准: 一、课程的地位、性质和任务 大数据技术的发展,已被列为国家重大发展战略。而在过去的几年里,无论是聚焦大数据发展的〈促进大数据发展行动纲要》,还是《十三五”规划》中都深刻体现了政府对大数据产业和应用发展 的重视。目前国内大数据发展还处于加速期、转型期,数据与传统产业的融合还处于起步阶段,各行业对大数据分析和挖掘的应用还不理想。但随着市场竞争的加剧,各行业对大数据技术研究的热 情越来越高,在未来几年,各领域的数据分析都将大规模应用。 本课程在注重大数据时代应用环境前提下,考虑大数据处理分析需求多样复杂的基本情况,从初学者角度出发,以轻量级理论、丰富的实例对比性地介绍大数据常用计算模式的各种系统和工具。考虑到当前大数据发展处于起步并逐步赶超先进的阶段,其应用领域丰富广泛,在教学过程中 应注重掌握大数据分析的实践操作。本课程通过丰富简单易上手的实例,让学生能够切实体会和掌 握各种类型工具的特点和应用。 二、课程教学基本要求 1. 了解大数据的发展和基本概念,理解并掌握大数据的特征及主要技术层面。 2. 掌握Scrapy环境的搭建,了解网络爬虫获取数据的过程,熟悉爬虫项目的创建。 3. 深刻了解hadoop的基础理论,理解并掌握Hadoop单机及集群环境的部署方法。 4. 掌握HDFS的基本概念和HDFS在hadoop中的作用,理解并识记HDFS的使用,了解HDFS 的JAVA API接口及数据流原理;让学生明白Map过程与Reduce过程这两个独立部分各自的原理及合作途径,知道如何独立编写满足自己需求的MapReduce程序。 5. 理解HBase中涉及的基本概念,掌握HBase的简单应用;让学生了解数据仓库的基础概念,熟悉Hive 与HDFS、MapReduce 直接的关心。

相关主题
文本预览
相关文档 最新文档