当前位置 : 主页 > 网络编程 > 其它编程 >

如何快速入门Hadoop大数据技术

来源:互联网 收集:自由互联 发布时间:2023-07-02
给大家推荐一本比较系统的Hadoop大数据书籍,方便大家快速入门图书简介:本书以Hadoop及其周边框架为主线,详情了整个Hadoop生态系统主流的大数据开发技术。全书共16章,第 给大家推
给大家推荐一本比较系统的Hadoop大数据书籍,方便大家快速入门图书简介:本书以Hadoop及其周边框架为主线,详情了整个Hadoop生态系统主流的大数据开发技术。全书共16章,第

给大家推荐一本比较系统的Hadoop大数据书籍,方便大家快速入门

图书简介:

本书以Hadoop及其周边框架为主线,详情了整个Hadoop生态系统主流的大数据开发技术。全书共16章,第1章讲解了VMware中CentOS 7操作系统的安装;第2章讲解了大数据开发之前对操作系统集群环境的配置;第3~16章讲解了Hadoop生态系统各框架HDFS、MapReduce、YARN、ZooKeeper、HBase、Hive、Sqoop和数据实时解决系统Flume、Kafka、Storm、Spark以及分布式搜索系统Elasticsearch等的基础知识、架构原理、集群环境调试,同时包括常用的Shell命令、API操作、源码剖析,并通过实际案例加深对各个框架的了解与应用。通过阅读本书,读者即便没有任何大数据基础,也可以对照书中的步骤成功搭建属于自己的大数据集群并独立完成项目开发。

本书适合大数据开发初学者、大数据运维人员以及大数据分析与挖掘的从业者阅读,也可作为培训机构与高校相关专业的教学参考书。

前 言

当今互联网已进入大数据时代,大数据技术已广泛应用于金融、医疗、教育、电信、政府等领域。各行各业每天都在产生大量的数据,数据计量单位已从B、KB、MB、GB、TB发展到PB、EB、ZB、YB甚至BB、NB、DB。估计未来几年,全球数据将呈爆炸式增长。谷歌、阿里巴巴、百度、京东等互联网公司都急需掌握大数据技术的人才,而大数据相关人才却出现了供不应求的状况。

对大数据以及人工智能概念都是模糊不清的,该按照什么线路去学习,学完往哪方面发展,想深入理解,想学习的同学欢迎加入大数据学习qq群:458345782,有大量干货(零基础以及进阶的经典实战)分享给大家,并且有清华大学毕业的资深大数据讲师给大家免费授课,给大家分享目前国内最完整的大数据高端实战实用学习流程体系 。从java和linux入手,其后逐渐的深入到HADOOP-hive-oozie-web-flume-python-hbase-kafka-scala-SPARK等相关知识逐个分享!

Hadoop作为大数据生态系统中的核心框架,专为离线和大规模数据解决而设计。Hadoop的核心组成HDFS为海量数据提供了分布式存储;MapReduce则为海量数据提供了分布式计算。很多互联网公司都使用Hadoop来实现公司的核心业务,例如华为的云计算平台、淘宝的推荐系统等,只需和海量数据相关的领域都有Hadoop的身影。

本书从实战角度出发,详情了Hadoop及其周边框架,涉及知识面比较广,几乎涵盖了当前整个Hadoop生态系统主流的大数据开发技术,如HDFS、MapReduce、YARN、ZooKeeper、HBase、Hive、Sqoop和数据实时解决系统Flume、Kafka、Storm、Spark以及分布式搜索系统Elasticsearch等的基础知识、架构原理、集群环境调试,同时包括常用的Shell命令、API操作、源码剖析,并通过实际案例加深对各个框架的了解与应用。

本书的特色是内容全面,代码可读性强,以实操为主,理论为辅,一步一步手把手对常用的离线计算以及实时计算等系统进行了深入讲解。

本书推荐的阅读方式是按照章节顺序从头到尾完成阅读,由于后面的很多章节是以前面的章节为基础,而且这种一步一个脚印、由浅入深的方式将使你更加顺利地掌握大数据的开发技能。

学习本书时,首先根据第1、2章搭建好开发环境,而后依次学习第3~16章,学习每一章时先理解该章的基础知识和框架的架构原理,而后再进行集群环境调试、Shell命令操作等实操练习,这样学习效果会更好。当书中的理论和实操知识都掌握后,可以进行举一反三,自己开发一个大数据程序,或者者将所学知识运用到自己的编程项目上,也可以到各种在线论坛与其余大数据爱好者进行探讨,互帮互助。

本书可作为Hadoop新手入门的指导书籍或者者大数据开发人员的参考用书,要求读者具有肯定的Java语言基础和Linux系统基础,对于没有任何大数据基础的读者,本书非常适合,你完全可以对照书中的步骤成功搭建属于自己的大数据集群。通过对本书的学习,读者能够对大数据相关框架迅速了解并掌握,可以熟练使用Hadoop集成环境进行大数据项目的开发。

因为时间起因,书中难免出现少量错误或者不精确的地方,恳请读者批评指正。

著者

2019年5月于青岛

II | 再也不踩坑的Kubernetes实战指南

目 录

第1章 VMware中安装CentOS 7

1.1 下载CentOS 7镜像文件

1.2 新建虚拟机

1.3 安装操作系统

第2章 CentOS 7集群环境配置

2.1 系统环境配置

2.1.1 新建客户

2.1.2 修改客户权限

2.1.3 关闭防火墙

2.1.4 设置固定IP

2.1.5 修改主机名

2.1.6 新建资源目录

2.2 安装JDK

2.3 克隆虚拟机

2.4 配置主机IP映射

第3章 Hadoop

3.1 Hadoop简介

3.1.1 Hadoop生态系统架构

3.1.2 Hadoop 1.x与2.x的架构比照

3.2 YARN基本架构及组件

3.3 YARN工作流程

3.4 配置集群各节点SSH无密钥登录

3.4.1 无密钥登录原理

3.4.2 无密钥登录操作步骤

3.5 搭建Hadoop 2.x分布式集群

第4章 HDFS

4.1 HDFS简介

4.1.1 设计目标

4.1.2 总体架构

4.1.3 主要组件

4.1.4 文件读写

4.2 HDFS命令行操作

4.3 HDFS Web界面操作

4.4 HDFS Java API操作

4.4.1 读取数据

4.4.2 创立目录

4.4.3 创立文件

4.4.4 删除文件

4.4.5 遍历文件和目录

4.4.6 获取文件或者目录的元数据

4.4.7 上传本地文件

4.4.8 下载文件到本地

第5章 MapReduce

5.1 MapReduce简介

5.1.1 设计思想

5.1.2 任务流程

5.1.3 工作原理

5.2 MapReduce程序编写步骤

5.3 案例分析:单词计数

5.4 案例分析:数据去重

5.5 案例分析:求平均分

5.6 案例分析:二次排序

5.7 使用MRUnit测试MapReduce程序

第6章 ZooKeeper

6.1 ZooKeeper简介

6.1.1 应用场景

6.1.2 架构原理

6.1.3 数据模型

6.1.4 节点类型

6.1.5 Watcher机制

6.1.6 分布式锁

6.2 ZooKeeper安装配置

6.2.1 单机模式

6.2.2 伪分布模式

6.2.3 集群模式

6.3 ZooKeeper命令行操作

6.4 ZooKeeper Java API操作

6.4.1 创立Java工程

6.4.2 创立节点

6.4.3 修改数据

6.4.4 获取数据

6.4.5 删除节点

6.5 案例分析:监听服务器动态上下线

第7章 HDFS与YARN HA

7.1 HDFS HA搭建

7.1.1 架构原理

7.1.2 搭建步骤

7.1.3 结合ZooKeeper进行HDFS自动故障转移

7.2 YARN HA搭建

7.2.1 架构原理

7.2.2 搭建步骤

第8章 HBase

8.1 什么是HBase

8.2 HBase基本结构

8.3 HBase数据模型

8.4 HBase集群架构

8.5 HBase安装配置

8.5.1 单机模式

8.5.2 伪分布模式

8.5.3 集群模式

8.6 HBase Shell命令操作

8.7 HBase Java API操作

8.7.1 创立Java工程

8.7.2 创立表

8.7.3 增加数据

8.7.4 查询数据

8.7.5 删除数据

8.8 HBase过滤器

8.9 案例分析:HBase MapReduce数据转移

8.9.1 HBase不同表间数据转移

8.9.2 HDFS数据转移至HBase

8.10 案例分析:HBase数据备份与恢复

第9章 Hive

9.1 什么是Hive

9.1.1 数据单元

9.1.2 数据类型

9.2 Hive架构体系

9.3 Hive三种运行模式

9.4 Hive安装配置

9.4.1 内嵌模式

9.4.2 本地模式

9.4.3 远程模式

9.5 Hive常见属性配置

9.6 Beeline CLI的使用

9.7 Hive数据库操作

9.8 Hive表操作

9.8.1 内部表

9.8.2 外部表

9.8.3 分区表

9.8.4 分桶表

9.9 Hive查询

9.9.1 SELECT子句查询

9.9.2 JOIN连接查询

9.10 其余Hive命令

9.11 Hive元数据表结构分析

9.12 Hive自己设置函数

9.13 Hive JDBC操作

9.14 案例分析:Hive与HBase整合

9.15 案例分析:Hive分析搜狗客户搜索日志

第10章 Sqoop

10.1 什么是Sqoop

10.1.1 Sqoop基本架构

10.1.2 Sqoop开发流程

10.2 使用Sqoop253

10.3 数据导入工具

10.4 数据导出工具

10.5 Sqoop安装与配置

10.6 案例分析:将MySQL表数据导入到HDFS中

10.7 案例分析:将HDFS中的数据导出到MySQL中

10.8 案例分析:将MySQL表数据导入到HBase中

第11章 Kafka267

11.1 什么是Kafka

11.2 Kafka架构

11.3 主题与分区

11.4 分区副本

11.5 消费者组

11.6 数据存储机制

11.7 集群环境调试

11.8 命令行操作

11.8.1 创立主题

11.8.2 查询主题

11.8.3 创立生产者

11.8.4 创立消费者

11.9 Java API操作

11.9.1 创立Java工程

11.9.2 创立生产者

11.9.3 创立消费者

11.9.4 运行程序

11.10 案例分析:Kafka生产者阻拦器

第12章 Flume

12.1 什么是Flume

12.2 架构原理

12.2.1 单节点架构

12.2.2 组件详情

12.2.3 多节点架构

12.3 安装与简单使用

12.4 案例分析:日志监控(一)

12.5 案例分析:日志监控(二)

12.6 阻拦器306

12.6.1 内置阻拦器

12.6.2 自己设置阻拦器

12.7 选择器

12.8 案例分析:阻拦器和选择器的应用

12.9 案例分析:Flume与Kafka整合

第13章 Storm

13.1 什么是Storm

13.2 Storm Topology

13.3 Storm集群架构

13.4 Storm流分组

13.5 Storm集群环境调试

13.6 案例分析:单词计数

13.6.1 设计思路

13.6.2 代码编写

13.6.3 程序运行

13.7 案例分析:Storm与Kafka整合

第14章 Elasticsearch

14.1 什么是Elasticsearch

14.2 基本概念

14.2.1 索引、类型和文档

14.2.2 分片和副本

14.2.3 路由

14.3 集群架构

14.4 集群环境调试

14.5 Kibana安装

14.6 REST API

14.6.1 集群状态API

14.6.2 索引API

14.6.3 文档API

14.6.4 搜索API

14.6.5 Query DSL

14.7 Head插件安装

14.8 Java API操作:员工信息

第15章 Scala

15.1 什么是Scala

15.2 安装Scala

15.2.1 Windows中安装Scala

15.2.2 CentOS 7中安装Scala

15.3 Scala基础

15.3.1 变量公告

15.3.2 数据类型

15.3.3 表达式

15.3.4 循环

15.3.5 方法与函数

15.4 集合

15.4.1 数组

15.4.2 List

15.4.3 Map映射

15.4.4 元组

15.4.5 Set

15.5 类和对象

15.5.1 类的定义

15.5.2 单例对象

15.5.3 伴生对象

15.5.4 get和set方法

15.5.5 构造器

15.6 笼统类和特质

15.6.1 笼统类

15.6.2 特质

15.7 使用Eclipse创立Scala项目

15.7.1 安装Scala for Eclipse IDE

15.7.2 创立Scala项目

15.8 使用IntelliJ IDEA创立Scala项目

15.8.1 IDEA中安装Scala插件

15.8.2 创立Scala项目

第16章 Spark

16.1 Spark概述

16.2 Spark主要组件

16.3 Spark运行时架构

16.3.1 Spark Standalone模式

16.3.2 Spark On YARN模式

16.4 Spark集群环境调试

16.4.1 Spark Standalone模式

16.4.2 Spark On YARN模式

16.5 Spark HA搭建

16.6 Spark应用程序的提交

16.7 Spark Shell的使用

16.8 Spark RDD

16.8.1 创立RDD

16.8.2 RDD算子

16.9 案例分析:使用Spark RDD实现单词计数

16.10 Spark SQL

16.10.1 DataFrame和Dataset

16.10.2 Spark SQL基本使用

16.11 案例分析:使用Spark SQL实现单词计数

16.12 案例分析:Spark SQL与Hive整合

16.13 案例分析:Spark SQL读写MySQL

上一篇:screen命令的最常见的使用方法
下一篇:没有了
网友评论