欢迎光临
免费的PDF电子书下载网站

Hadoop权威指南:大数据的存储与分析(第4版) PDF下载

编辑推荐

本书结合理论和实践,由浅入深,全方位介绍了Hadoop 这一高性能的海量数据处理和分析平台。全书5部分24 章,第Ⅰ部分介绍Hadoop 基础知识,第Ⅱ部分介绍MapReduce,第Ⅲ部分介绍Hadoop 的运维,第Ⅳ部分介绍Hadoop 相关开源项目,第Ⅴ部分提供了三个案例,分别来自医疗卫生信息技术服务商塞纳(Cerner)、微软的人工智能项目ADAM(一种大规模分布式深度学习框架)和开源项目Cascading(一个新的针对MapReduce 的数据处理API)。本书是一本专业、全面的Hadoop 参考书和工具书,阐述了Hadoop 生态圈的新发展和应用,程序员可以从中探索海量数据集的存储和分析,管理员可以从中了解Hadoop 集群的安装和运维。

 ;

内容简介

本书结合理论和实践,由浅入深,全方位介绍了Hadoop这一高性能的海量数据处理和分析平台。全书5部分24章,第Ⅰ部分介绍Hadoop基础知识,主题涉及Hadoop、MapReduce、Hadoop分布式文件系统、YARN、Hadoop的I/O操作。第Ⅱ部分介绍MapReduce,主题包括MapReduce应用开发;MapReduce的工作机制、MapReduce的类型与格式、MapReduce的特性。第Ⅲ部分介绍Hadoop的运维,主题涉及构建Hadoop集群、管理Hadoop。第Ⅳ部分介绍Hadoop相关开源项目,主题涉及Avro、Parquet、Flume、Sqoop、Pig、Hive、Crunch、Spark、HBase、ZooKeeper。第Ⅴ部分提供了三个案例,分别来自医疗卫生信息技术服务商塞纳(Cerner)、微软的人工智能项目ADAM(一种大规模分布式深度学习框架)和开源项目Cascading(一个新的针对MapReduce的数据处理API)。 本书是一本权威、全面的Hadoop参考书和工具书,阐述了Hadoop生态圈的*发展和应用,程序员可以从中探索海量数据集的存储和分析,管理员可以从中了解Hadoop集群的安装和运维。

作者简介

作者简介
Tom White是最杰出的Hadoop专家之一。自2007年2月以来,Tom White一直是Apache Hadoop的提交者(committer),也是Apache软件基金会的成员。Tom是Cloudera的软件工程师,他是Cloudera的首批员工,对Apache和Cloudera做出了举足轻重的贡献。在此之前,他是一名独立的Hadoop顾问,帮助公司搭建、使用和扩展Hadoop。他是很多行业大会的专题演讲人,比如ApacheCon、OSCON和Strata。Tom在英国剑桥大学获得数学学士学位,在利兹大学获得科学哲学硕士学位。他目前与家人居住在威尔士。

译者简介
王海博士,解放军理工大学通信工程学院教授,博导,教研中心主任,长期从事无线自组网网络的设计与研发工作,主持国家自然科学基金、国家863计划课题等多项*课题,近5年获军队科技进步二等奖1项,三等奖6项,作为第一发明人申请国家发明专利十余项,发表学术论文50余篇。

Hadoop权威指南:大数据的存储与分析(第4版) PDF下载

目录


 

Ⅰ部分  ;Hadoop基础知识

 ;

第1  ;初识Hadoop 3

1.1  ;数据!数据! 3

1.2  ;数据的存储与分析 5

1.3  ;查询所有数据 6

1.4  ;不仅仅是批处理 7

1.5  ;相较于其他系统的优势 8

1.5.1  ;关系型数据库管理系统 8

1.5.2  ;网格计算 10

1.5.3  ;志愿计算 11

1.6  ;Apache Hadoop发展简史 12

1.7  ;本书包含的内容 16

第2  ;关于MapReduce 19

2.1  ;气象数据集 19

2.2  ;使用Unix工具来分析数据 21

2.3  ;使用Hadoop来分析数据 22

2.3.1  ;map和reduce 23

2.3.2  ;Java MapReduce 24

2.4  ;横向扩展 31

2.4.1  ;数据流 31

2.4.2  ;combiner函数 35

2.4.3  ;运行分布式的
MapReduce作业 37

2.5  ;Hadoop Streaming 37

2.5.1  ;Ruby版本 38

2.5.2  ;Python版本 40

第3  ;Hadoop分布式文件系统 42

3.1  ;HDFS的设计 42

3.2  ;HDFS的概念 44

3.2.1  ;数据块 44

 ;

3.2.2  ;namenode和datanode 45

3.2.3  ;块缓存 46

3.2.4  ;联邦HDFS 47

3.2.5  ;HDFS的高可用性 47

3.3  ;命令行接口 50

3.4  ;Hadoop文件系统 52

3.5  ;Java接口 56

3.5.1  ;从Hadoop URL读取
数据 56

3.5.2  ;通过FileSystem API
读取数据 58

3.5.3  ;写入数据 61

3.5.4  ;目录 63

3.5.5  ;查询文件系统 63

3.5.6  ;删除数据 68

3.6  数据流 68

3.6.1  剖析文件读取 68

3.6.2  剖析文件写入 71

3.6.3  一致模型 74

3.7  通过distcp并行复制 76

第4  关于YARN 78

4.1  剖析YARN应用运行机制 79

4.1.1  资源请求 80

4.1.2  应用生命期 81

4.1.3  构建YARN应用 81

4.2  YARN与MapReduce 1相比 82

4.3  YARN中的调度 85

4.3.1  调度选项 85

4.3.2  容量调度器配置 87

4.3.3  公平调度器配置 89

4.3.5  延迟调度 93

4.3.5  主导资源公平性 94

4.4  延伸阅读 95

第5  Hadoop的I/O操作 96

5.1  数据完整性 96

5.1.1  HDFS的数据完整性 97

5.1.2  LocalFileSystem 98

5.1.3  ChecksumFileSystem 98

5.2  压缩 99

5.2.1  codec 100

5.2.2  压缩和输入分片 105

 

5.2.3  在MapReduce中使用
压缩 106

5.3  序列化 109

5.3.1  Writable接口 110

5.3.2  Writable类 112

5.3.3  实现定制的Writable
集合 121

5.3.4  序列化框架 125

5.4  基于文件的数据结构 127

5.4.1  关于SequenceFile 127

5.4.2  关于MapFile 135

5.4.3  其他文件格式和
面向列的格式 136

 

Ⅱ部分  关于MapReduce

 

第6  MapReduce应用开发 141

6.1  用于配置的API 142

6.1.1  资源合并 143

6.1.2  变量扩展 144

6.2  配置开发环境 144

6.2.1  管理配置 146

6.2.2  辅助类GenericOptionsParser,
Tool和ToolRunner 149

6.3  用MRUnit来写单元测试 152

6.3.1  关于Mapper 152

6.3.2  关于Reducer 156

6.4  本地运行测试数据 156

6.4.1  在本地作业运行器上
运行作业 156

6.4.2  测试驱动程序 158

6.5  在集群上运行 160

6.5.1  打包作业 160

6.5.2  启动作业 162

6.5.3  MapReduce的Web
界面 165

6.5.4  获取结果 167

6.5.5  作业调试 168

6.5.6  Hadoop日志 171

6.5.7  远程调试 173

6.6  作业调优 174

6.7  MapReduce的工作流 176

6.7.1  将问题分解成
MapReduce作业 177

6.7.2  关于JobControl 178

6.7.3  关于Apache Oozie 179

第7  MapReduce的工作机制 184

7.1  剖析MapReduce作业运行
机制 184

7.1.1  作业的提交 185

7.1.2  作业的初始化 186

7.1.3  任务的分配 187

7.1.4  任务的执行 188

7.1.5  进度和状态的更新 189

7.1.6  作业的完成 191

7.2  失败 191

7.2.1  任务运行失败 191

7.2.2  application master
运行失败 193

7.2.3  节点管理器运行失败 193

7.2.4  资源管理器运行失败 194

7.3  shuffle和排序 195

7.3.1  map端 195

7.3.2  reduce端 197

7.3.3  配置调优 199

7.4  任务的执行 201

7.4.1  任务执行环境 201

7.4.2  推测执行 202

7.4.3  关于
OutputCommitters 204

第8  MapReduce的
类型与格式 207

8.1  MapReduce的类型 207

8.1.1  默认的MapReduce
作业 212

8.1.2  默认的Streaming
作业 216

8.2  输入格式 218

8.2.1  输入分片与记录 218

8.2.2  文本输入 229

8.2.3  二进制输入 233

8.2.4  多个输入 234

8.2.5  数据库输入(和输出) 235

8.3  输出格式 236

8.3.1  文本输出 236

8.3.2  二进制输出 237

8.3.3  多个输出 237

8.3.4  延迟输出 242

8.3.5  数据库输出 242

第9  MapReduce的特性 243

9.1  计数器 243

9.1.1  内置计数器 243

9.1.2  用户定义的Java
计数器 248

9.1.3  用户定义的Streaming
计数器 251

9.2  排序 252

9.2.1  准备 252

9.2.2  部分排序 253

9.2.3  全排序 255

9.2.4  辅助排序 259

9.3  连接 264

9.3.1  map端连接 266

9.3.2  reduce端连接 266

9.4  边数据分布 270

9.4.1  利用JobConf来配置
作业 270

9.4.2  分布式缓存 270

9.5  MapReduce库类 276

 

Ⅲ部分  Hadoop的操作

 

第10  构建Hadoop集群 279

10.1  集群规范 280

10.1.1  集群规模 281

10.1.2  网络拓扑 282

10.2  集群的构建和安装 284

10.2.1  安装Java 284

10.2.2  创建Unix 用户账号 284

10.2.3  安装Hadoop 284

10.2.4  SSH配置 285

10.2.5  配置Hadoop 286

10.2.6  格式化HDFS 文件
系统 286

10.2.7  启动和停止守护
进程 286

10.2.8  创建用户目录 288

10.3  Hadoop配置 288

10.3.1  配置管理 289

10.3.2  环境设置 290

10.3.3  Hadoop守护进程的
关键属性 293

10.3.4  Hadoop守护进程的
地址和端口 300

10.3.5  Hadoop的其他属性 303

10.4  安全性 305

10.4.1  Kerberos和Hadoop 306

10.4.2  委托令牌 308

10.4.3  其他安全性改进 309

10.5  利用基准评测程序测试
Hadoop集群 311

10.5.1  Hadoop基准评测
程序 311

10.5.2  用户作业 313

第11  管理Hadoop 314

11.1  HDFS 314

11.1.1  永久性数据结构 314

11.1.2  安全模式 320

 

11.1.3  日志审计 322

11.1.4  工具 322

11.2  监控 327

11.2.1  日志 327

11.2.2  度量和JMX(Java
管理扩展) 328

11.3  维护 329

11.3.1  日常管理过程 329

11.3.2  委任和解除节点 331

11.3.3  升级 334

 

Ⅳ部分  Hadoop相关开源项目

 

第12  关于Avro 341

12.1  Avro数据类型和模式 342

12.2  内存中的序列化和
反序列化特定API 347

12.3  Avro数据文件 349

12.4  互操作性 351

12.4.1  Python API 351

12.4.2  Avro工具集 352

12.5  模式解析 352

12.6  排列顺序 354

12.7  关于Avro MapReduce 356

12.8  使用Avro MapReduce
进行排序 359

12.9  其他语言的Avro 362

第13  关于Parquet 363

13.1  数据模型 364

13.2  Parquet文件格式 367

13.3  Parquet的配置 368

13.4  Parquet文件的读/写 369

13.4.1  Avro、Protocol Buffers
和Thrift 371

13.4.2  投影模式和读取
模式 373

13.5  Parquet MapReduce 374

第14  关于Flume 377

14.1  安装Flume 378

14.2  示例 378

14.3  事务和可靠性 380

14.4  HDFS Sink 382

14.5  扇出 385

14.5.1  交付保证 386

14.5.2  复制和复用选择器 387

14.6  通过代理层分发 387

14.7  Sink组 391

14.8  Flume与应用程序的集成 395

14.9  组件编目 395

14.10  延伸阅读 397

第15  关于Sqoop 398

15.1  获取Sqoop 398

15.2  Sqoop连接器 400

15.3  一个导入的例子 401

15.4  生成代码 404

15.5  深入了解数据库导入 405

15.5.1  导入控制 407

15.5.2  导入和一致性 408

15.5.3  增量导入 408

15.5.4  直接模式导入 408

15.6  使用导入的数据 409

15.7  导入大对象 412

15.8  执行导出 414

15.9  深入了解导出功能 416

15.9.1  导出与事务 417

15.9.2  导出和SequenceFile 418

15.10  延伸阅读 419

第16  关于Pig 420

16.1  安装与运行Pig 421

16.1.1  执行类型 422

16.1.2  运行Pig程序 423

16.1.3  Grunt 424

16.1.4  Pig Latin编辑器 424

16.2  示例 425

16.3  与数据库进行比较 428

16.4  PigLatin 429

16.4.1  结构 430

16.4.2  语句 431

16.4.3  表达式 436

16.4.4  类型 437

16.4.5  模式 438

16.4.6  函数 443

16.4.7  宏 445

16.5  用户自定义函数 446

16.5.1  过滤UDF 447

16.5.2  计算UDF 450

16.5.3  加载UDF 452

16.6  数据处理操作 455

16.6.1  数据的加载和存储 455

16.6.2  数据的过滤 455

16.6.3  数据的分组与连接 458

16.6.4  数据的排序 463

16.6.5  数据的组合和切分 465

16.7  Pig实战 465

16.7.1  并行处理 465

16.7.2  匿名关系 466

16.7.3  参数代换 467

16.8  延伸阅读 468

第17  关于Hive 469

17.1  安装Hive 470

Hive的shell环境 471

17.2  示例 472

17.3  运行Hive 473

17.3.1  配置Hive 473

17.3.2  Hive服务 476

17.3.3  Metastore 478

17.4  Hive与传统数据库相比 480

17.4.1  读时模式vs.写时
模式 480

17.4.2  更新、事务和索引 481

17.4.3  其他SQL-on-Hadoop
技术 482

17.5  HiveQL 483

17.5.1  数据类型 484

17.5.2  操作与函数 487

17.6  表 488

17.6.1  托管表和外部表 488

17.6.2  分区和桶 490

17.6.3  存储格式 494

17.6.4  导入数据 498

17.6.5  表的修改 500

17.6.6  表的丢弃 501

17.7  查询数据 501

17.7.1  排序和聚集 501

17.7.2  MapReduce脚本 502

17.7.3  连接 503

17.7.4  子查询 506

17.7.5  视图 507

17.8  用户定义函数 508

17.8.1  写UDF 510

17.8.2  写UDAF 512

17.9  延伸阅读 516

第18  关于Crunch 517

18.1  示例 518

18.2  Crunch核心API 521

18.2.1  基本操作 522

18.2.2  类型 527

18.2.3  源和目标 530

18.2.4  函数 532

18.2.5  物化 535

18.3  管线执行 537

18.3.1  运行管线 538

18.3.2  停止管线 539

18.3.3  查看Crunch计划 540

18.3.4  迭代算法 543

18.3.5  给管线设置检查点 544

18.4  Crunch库 545

18.5  延伸阅读 547

第19  关于Spark 548

19.1  安装Spark 549

19.2  示例 549

19.2.1  Spark应用、作业、
阶段和任务 551

19.2.2  Scala独立应用 552

19.2.3  Java示例 553

19.2.4  Python示例 554

19.3  弹性分布式数据集 555

19.3.1  创建 555

19.3.2  转换和动作 557

19.3.3  持久化 561

19.3.4  序列化 563

19.4  共享变量 564

19.4.1  广播变量 564

19.4.2  累加器 565

19.5  剖析Spark作业运行机制 565

19.5.1  作业提交 566

19.5.2  DAG的构建 566

19.5.3  任务调度 569

19.5.4  任务执行 570

19.6  执行器和集群管理器 570

19.7  延伸阅读 574

第20  关于HBase 575

20.1  HBase基础 575

20.2  概念 576

20.2.1  数据模型的
“旋风之旅” 576

20.2.2  实现 578

20.3  安装 581

20.4  客户端 584

20.4.1  Java 584

20.4.2  MapReduce 588

20.4.3  REST和Thrift 589

20.5  创建在线查询应用 589

20.5.1  模式设计 590

20.5.2  加载数据 591

20.5.3  在线查询 595

20.6  HBase和RDBMS的比较 598

20.6.1  成功的服务 599

20.6.2  HBase 600

20.7  Praxis 601

20.7.1  HDFS 601

20.7.2  用户界面 602

20.7.3  度量 602

20.7.4  计数器 602

20.8  延伸阅读 602

第21  关于ZooKeeper 604

21.1  安装和运行ZooKeeper 605

21.2  示例 607

21.2.1  ZooKeeper中的
组成员关系 608

21.2.2  创建组 608

21.2.3  加入组 611

21.2.4  列出组成员 612

21.2.5  删除组 614

21.3  ZooKeeper服务 615

21.3.1  数据模型 615

21.3.2  操作 618

21.3.3  实现 622

21.3.4  一致性 624

21.3.5  会话 626

21.3.6  状态 628

21.4  使用ZooKeeper来构建
应用 629

21.4.1  配置服务 629

21.4.2  可复原的ZooKeeper
应用 633

21.4.3  锁服务 637


21.4.4  更多分布式数据
结构和协议 639

21.5  生产环境中的ZooKeeper 640

21.5.1  可恢复性和性能 641

21.5.2  配置 642

21.6  延伸阅读 643

 

Ⅴ部分  案例学习

 

第22  医疗公司塞纳(Cerner)
的可聚合数据 647

22.1  从多CPU到语义集成 647

22.2  进入Apache Crunch 648

22.3  建立全貌 649

22.4  集成健康医疗数据 651

22.5  框架之上的可组合性 654

22.6  下一步 655

第23  生物数据科学:
用软件拯救生命 657

23.1  DNA的结构 659

23.2  遗传密码:将DNA字符
转译为蛋白质 660

22.3  将DNA想象成源代码 661

23.4  人类基因组计划和参考
基因组 663

22.5  DNA测序和比对 664

23.6  ADAM,一个可扩展的
基因组分析平台 666

23.7  使用Avro接口描述语言进行
自然语言编程 666

23.8  使用Parquet进行面向列的
存取 668

23.9  一个简单例子:用Spark和
ADAM做k-mer计数 669

23.10  从个性化广告到个性化
医疗 672

23.11  联系我们 673

第24  开源项目Cascading 674

24.1  字段、元组和管道 675

24.2  操作 678

24.3  Taps,Schemes和Flows 680

24.4  Cascading实践应用 681

24.5  灵活性 684

24.6  ShareThis中的Hadoop和
Cascading 685

24.7  总结 689

附录A  安装Apache Hadoop 691

附录B  关于CDH 697

附录C  准备NCDC气象数据 699

附录D  新版和旧版Java
MapReduce API 702

 

前沿

前言

数学科普作家马丁·加德纳(Martin Gardner)曾经在一次采访中谈到:
“在我的世界里,只有微积分。这是我的专栏取得成功的奥秘。我花了很多时间才明白如何以大多数读者都能明白的方式将自己所知道的东西娓娓道来。”
这也是我对Hadoop的诸多感受。它的内部工作机制非常复杂,是一个集分布式系统理论、实际工程和常识于一体的系统。而且,对门外汉而言,Hadoop更像是“天外来客”。

免费在线读

第3章  Hadoop分布式文件系统

 

当数据集的大小超过一台独立的物理计算机的存储能力时,就有必要对它进行分区(partition)并存储到若干台单独的计算机上。管理网络中跨多台计算机存储的文件系统称为分布式文件系统(distributed filesystem)。该系统架构于网络之上,势必会引入网络编程的复杂性,因此分布式文件系统比普通磁盘文件系统更为复杂。例如,使文件系统能够容忍节点故障且不丢失任何数据,就是一个极大的挑战。

Hadoop自带一个称为HDFS的分布式文件系统,即Hadoop Distributed Filesystem。在非正式文档或旧文档以及配置文件中,有时也简称为DFS,它们是一回事儿。HDFS是Hadoop的旗舰级文件系统,也是本章的重点,但实际上Hadoop是一个综合性的文件系统抽象,因此接下来我们将了解将Hadoop与其他存储系统集成的途径,例如本地文件系统和Amazon S3系统。

3.1  HDFS的设计

HDFS以流式数据访问模式来存储超大文件,运行于商用硬件集群上。①让我们仔细看看下面的描述。

* 超大文件  “超大文件”在这里指具有几百MB、几百GB甚至几百TB大小的文件。目前已经有存储PB级数据的Hadoop 集群了。②

* 流式数据访问  HDFS的构建思路是这样的:一次写入、多次读取是最高效的访问模式。数据集通常由数据源生成或从数据源复制而来,接着长时间在此数据集上进行各种分析。每次分析都将涉及该数据集的大部分数据甚至全部,因此读取整个数据集的时间延迟比读取第一条记录的时间延迟更重要。

 

* 商用硬件  Hadoop并不需要运行在昂贵且高可靠的硬件上。它是设计运行在商用硬件(在各种零售店都能买到的普通硬件③)的集群上的,因此至少对于庞大的集群来说,节点故障的几率还是非常高的。HDFS遇到上述故障时,被设计成能够继续运行且不让用户察觉到明显的中断。

 

同样,那些不适合在HDFS上运行的应用也值得研究。目前HDFS对某些应用领域并不适合,不过以后可能会有所改进。

* 低时间延迟的数据访问  要求低时间延迟数据访问的应用,例如几十毫秒范围,不适合在HDFS上运行。记住,HDFS是为高数据吞吐量应用优化的,这可能会以提高时间延迟为代价。目前,对于低延迟的访问需求,HBase(参见第20 章)是更好的选择。

 

* 大量的小文件  由于namenode将文件系统的元数据存储在内存中,因此该文件系统所能存储的文件总数受限于namenode的内存容量。根据经验,每个文件、目录和数据块的存储信息大约占150字节。因此,举例来说,如果有一百万个文件,且每个文件占一个数据块,那至少需要300 MB 的内存。尽管存储上百万个文件是可行的,但是存储数十亿个文件就超出了当前硬件的能力。④

 

* 多用户写入,任意修改文件  HDFS中的文件写入只支持单个写入者,而且写操作总是以“只添加”方式在文件末尾写数据。它不支持多个写入者的操作,也不支持在文件的任意位置进行修改。可能以后会支持这些操作,但它们相对比较低效。

3.2  HDFS的概念

3.2.1  数据块

每个磁盘都有默认的数据块大小,这是磁盘进行数据读/写的最小单位。构建于单个磁盘之上的文件系统通过磁盘块来管理该文件系统中的块,该文件系统块的大小可以是磁盘块的整数倍。文件系统块一般为几千字节,而磁盘块一般为512字节。这些信息(文件系统块大小)对于需要读/写文件的文件系统用户来说是透明的。尽管如此,系统仍然提供了一些工具(如df和fsck)来维护文件系统,由它们对文件系统中的块进行操作。

HDFS同样也有块(block)的概念,但是大得多,默认为128 MB。与单一磁盘上的文件系统相似,HDFS上的文件也被划分为块大小的多个分块(chunk),作为独立的存储单元。但与面向单一磁盘的文件系统不同的是,HDFS中小于一个块大小的文件不会占据整个块的空间(例如,当一个 1MB的文件存储在一个128 MB 的块中时,文件只使用1 MB的磁盘空间,而不是128 MB)。如果没有特殊指出,本书中提到的“块”特指HDFS中的块。

HDFS中的块为什么这么大?

HDFS的块比磁盘的块大,其目的是为了最小化寻址开销。如果块足够大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间。因而,传输一个由多个块组成的大文件的时间取决于磁盘传输速率。

我们来做一个速算,如果寻址时间约为10 ms,传输速率为100 MB/s,为了使寻址时间仅占传输时间的1%,我们要将块大小设置约为100 MB。默认的块大小实际为128 MB,但是很多情况下HDFS安装时使用更大的块。以后随着新一代磁盘驱动器传输速率的提升,块的大小会被设置得更大。

但是这个参数也不会设置得过大。MapReduce中的map任务通常一次只处理一个块中的数据,因此如果任务数太少(少于集群中的节点数量),作业的运行速度就会比较慢。

 

对分布式文件系统中的块进行抽象会带来很多好处。第一个最明显的好处是,一个文件的大小可以大于网络中任意一个磁盘的容量。文件的所有块并不需要存储在同一个磁盘上,因此它们可以利用集群上的任意一个磁盘进行存储。事实上,尽管不常见,但对于整个HDFS集群而言,也可以仅存储一个文件,该文件的块占满集群中所有的磁盘。

第二个好处是,使用抽象块而非整个文件作为存储单元,大大简化了存储子系统的设计。简化是所有系统的目标,但是这对于故障种类繁多的分布式系统来说尤为重要。将存储子系统的处理对象设置为块,可简化存储管理(由于块的大小是固定的,因此计算单个磁盘能存储多少个块就相对容易)。同时也消除了对元数据的顾虑(块只是要存储的大块数据,而文件的元数据,如权限信息,并不需要与块一同存储,这样一来,其他系统就可以单独管理这些元数据)。

不仅如此,块还非常适合用于数据备份进而提供数据容错能力和提高可用性。将每个块复制到少数几个物理上相互独立的机器上(默认为3个),可以确保在块、磁盘或机器发生故障后数据不会丢失。如果发现一个块不可用,系统会从其他地方读取另一个复本,而这个过程对用户是透明的。一个因损坏或机器故障而丢失的块可以从其他候选地点复制到另一台可以正常运行的机器上,以保证复本的数量回到正常水平(参见5.1节对数据完整性的讨论,进一步了解如何应对数据损坏)。同样,有些应用程序可能选择为一些常用的文件块设置更高的复本数量进而分散集群中的读取负载。

与磁盘文件系统相似,HDFS中fsck指令可以显示块信息。例如,执行以下命令将列出文件系统中各个文件由哪些块构成,详情可以参见11.1.4节对文件系统检查(fsck)的讨论:

 % hdfs fsck / -files -blocks

3.2.2  namenode和datanode

HDFS集群有两类节点以管理节点-工作节点模式运行,即一个namenode(管理节点)和多个datanode(工作节点)。namenode管理文件系统的命名空间。它维护着文件系统树及整棵树内所有的文件和目录。这些信息以两个文件形式永久保存在本地磁盘上:命名空间镜像文件和编辑日志文件。namenode也记录着每个文件中各个块所在的数据节点信息,但它并不永久保存块的位置信息,因为这些信息会在系统启动时根据数据节点信息重建。

客户端(client)代表用户通过与namenode和datanode交互来访问整个文件系统。客户端提供一个类似于POSIX(可移植操作系统界面)的文件系统接口,因此用户在编程时无需知道namenode和datanode也可实现其功能。

datanode是文件系统的工作节点。它们根据需要存储并检索数据块(受客户端或namenode调度),并且定期向namenode发送它们所存储的块的列表。

没有namenode,文件系统将无法使用。事实上,如果运行namenode服务的机器毁坏,文件系统上所有的文件将会丢失,因为我们不知道如何根据datanode的块重建文件。因此,对namenode实现容错非常重要,Hadoop为此提供两种机制。

第一种机制是备份那些组成文件系统元数据持久状态的文件。Hadoop可以通过配置使namenode在多个文件系统上保存元数据的持久状态。这些写操作是实时同步的,且是原子操作。一般的配置是,将持久状态写入本地磁盘的同时,写入一个远程挂载的网络文件系统(NFS)。

另一种可行的方法是运行一个辅助namenode,但它不能被用作namenode。这个辅助namenode的重要作用是定期合并编辑日志与命名空间镜像,以防止编辑日志过大。这个辅助namenode一般在另一台单独的物理计算机上运行,因为它需要占用大量CPU时间,并且需要与namenode一样多的内存来执行合并操作。它会保存合并后的命名空间镜像的副本,并在namenode发生故障时启用。但是,辅助namenode保存的状态总是滞后于主节点,所以在主节点全部失效时,难免会丢失部分数据。在这种情况下,一般把存储在NFS上的namenode元数据复制到辅助namenode并作为新的主namenode运行。(注意,也可以运行热备份namenode代替运行辅助namenode,具体参见3.2.5节对HDFS高可用性的讨论。)

关于文件系统镜像和编辑日志的更多讨论,请参见11.1.1节。

3.2.3  块缓存

通常datanode从磁盘中读取块,但对于访问频繁的文件,其对应的块可能被显式地缓存在datanode的内存中,以堆外块缓存(off-heap block cache)的形式存在。默认情况下,一个块仅缓存在一个datanode的内存中,当然可以针每个文件配置datanode的数量。作业调度器(用于MapReduce、Spark和其他框架的)通过在缓存块的datanode上运行任务,可以利用块缓存的优势提高读操作的性能。例如,连接(join)操作中使用的一个小的查询表就是块缓存的一个很好的候选。

用户或应用通过在缓存池(cache pool)中增加一个cache directive来告诉namenode需要缓存哪些文件及存多久。缓存池是一个用于管理缓存权限和资源使用的管理性分组。

3.2.4  联邦HDFS

namenode在内存中保存文件系统中每个文件和每个数据块的引用关系,这意味着对于一个拥有大量文件的超大集群来说,内存将成为限制系统横向扩展的瓶颈(参见10.3.2节)。在2.x发行版本系列中引入的联邦HDFS允许系统通过添加namenode实现扩展,其中每个namenode管理文件系统命名空间中的一部分。例如,一个namenode可能管理/user目录下的所有文件,而另一个namenode可能管理/share目录下的所有文件。

在联邦环境下,每个namenode维护一个命名空间卷(namespace volume),由命名空间的元数据和一个数据块池(block pool)组成,数据块池包含该命名空间下文件的所有数据块。命名空间卷之间是相互独立的,两两之间并不相互通信,甚至其中一个namenode的失效也不会影响由其他namenode维护的命名空间的可用性。数据块池不再进行切分,因此集群中的datanode需要注册到每个namenode,并且存储着来自多个数据块池中的数据块。

要想访问联邦HDFS集群,客户端需要使用客户端挂载数据表将文件路径映射到namenode。该功能可以通过ViewFileSystem和viewfs://URI进行配置和管理。

3.2.5  HDFS的高可用性

通过联合使用在多个文件系统中备份namenode的元数据和通过备用namenode创建监测点能防止数据丢失,但是依旧无法实现文件系统的高可用性。namenode 依旧存在单点失效(SPOF, single point of failure)的问题。如果namenode失效了,那么所有的客户端,包括MapReduce作业,均无法读、写或列举(list)文件,因为namenode是唯一存储元数据与文件到数据块映射的地方。在这一情况下,Hadoop系统无法提供服务直到有新的namenode上线。

在这样的情况下,要想从一个失效的namenode恢复,系统管理员得启动一个拥有文件系统元数据副本的新的namenode,并配置datanode和客户端以便使用这个新的namenode。新的namenode直到满足以下情形才能响应服务:(1)将命名空间的映像导入内存中;(2)重演编辑日志;(3)接收到足够多的来自datanode的数据块报告并退出安全模式。对于一个大型并拥有大量文件和数据块的集群,namenode的冷启动需要30分钟,甚至更长时间。

系统恢复时间太长,也会影响到日常维护。事实上,预期外的namenode失效出现概率很低,所以在现实中,计划内的系统失效时间实际更为重要。

Hadoop2针对上述问题增加了对HDFS高可用性(HA)的支持。在这一实现中,配置了一对活动-备用(active-standby) namenode。当活动namenode失效,备用namenode就会接管它的任务并开始服务于来自客户端的请求,不会有任何明显中断。实现这一目标需要在架构上做如下修改。

* namenode之间需要通过高可用共享存储实现编辑日志的共享。当备用namenode接管工作之后,它将通读共享编辑日志直至末尾,以实现与活动namenode的状态同步,并继续读取由活动namenode写入的新条目。

 

* datanode需要同时向两个namenode发送数据块处理报告,因为数据块的映射信息存储在namenode的内存中,而非磁盘。

 

* 客户端需要使用特定的机制来处理namenode的失效问题,这一机制对用户是透明的。

 

* 辅助namenode的角色被备用namenode所包含,备用namenode为活动的namenode命名空间设置周期性检查点。

 

可以从两种高可用性共享存储做出选择:NFS过滤器或群体日志管理器(QJM,quorum journal manager)。QJM是一个专用的HDFS实现,为提供一个高可用的编辑日志而设计,被推荐用于大多数HDFS部署中。QJM以一组日志节点(journal node)的形式运行,每一次编辑必须写入多数日志节点。典型的,有三个journal节点,所以系统能够忍受其中任何一个的丢失。这种安排与ZooKeeper的工作方式类似,当然必须认识到,QJM的实现并没使用ZooKeeper。(然而,值得注意的是,HDFS HA在选取活动的namenode时确实使用了ZooKeeper技术,详情参见下一章。)

在活动namenode失效之后,备用namenode能够快速(几十秒的时间)实现任务接管,因为最新的状态存储在内存中:包括最新的编辑日志条目和最新的数据块映射信息。实际观察到的失效时间略长一点(需要1分钟左右),这是因为系统需要保守确定活动namenode是否真的失效了。

在活动namenode失效且备用namenode也失效的情况下,当然这类情况发生的概率非常低,管理员依旧可以声明一个备用namenode并实现冷启动。这类情况并不会比非高可用(non-HA)的情况更差,并且从操作的角度讲这是一个进步,因为上述处理已是一个标准的处理过程并植入Hadoop中。

故障切换与规避

系统中有一个称为故障转移控制器(failover controller)的新实体,管理着将活动namenode转移为备用namenode的转换过程。有多种故障转移控制器,但默认的一种是使用了ZooKeeper来确保有且仅有一个活动namenode。每一个namenode运行着一个轻量级的故障转移控制器,其工作就是监视宿主namenode是否失效(通过一个简单的心跳机制实现)并在namenode失效时进行故障切换。

管理员也可以手动发起故障转移,例如在进行日常维护时。这称为“平稳的故障转移”(graceful failover),因为故障转移控制器可以组织两个namenode有序地切换角色。

但在非平稳故障转移的情况下,无法确切知道失效namenode是否已经停止运行。例如,在网速非常慢或者网络被分割的情况下,同样也可能激发故障转移,但是先前的活动namenode依然运行着并且依旧是活动namenode。高可用实现做了更进一步的优化,以确保先前活动的namenode不会执行危害系统并导致系统崩溃的操作,该方法称为“规避”(fencing)。

同一时间QJM仅允许一个namenode向编辑日志中写入数据。然而,对于先前的活动namenode而言,仍有可能响应并处理客户过时的读请求,因此,设置一个SSH规避命令用于杀死namenode的进程是一个好主意。当使用NFS过滤器实现共享编辑日志时,由于不可能同一时间只允许一个namenode写入数据(这也是为什么推荐QJM的原因),因此需要更有力的规避方法。规避机制包括:撤销namenode访问共享存储目录的权限(通常使用供应商指定的NFS命令)、通过远程管理命令屏蔽相应的网络端口。诉诸的最后手段是,先前活动namenode可以通过一个相当形象的称为“一枪爆头”STONITH,shoot the other node in the head)的技术进行规避,该方法主要通过一个特定的供电单元对相应主机进行断电操作。

客户端的故障转移通过客户端类库实现透明处理。最简单的实现是通过客户端的配置文件实现故障转移的控制。HDFS URI使用一个逻辑主机名,该主机名映射到一对namenode地址(在配置文件中设置),客户端类库会访问每一个namenode地址直至处理完成。

 

3.3  命令行接口

现在我们通过命令行交互来进一步认识HDFS。HDFS还有很多其他接口,但命令行是最简单的,同时也是许多开发者最熟悉的。

参照附录A中伪分布模式下设置Hadoop的说明,我们先在一台机器上运行HDFS。稍后介绍如何在集群上运行HDFS,以提供可扩展性与容错性。

在我们设置伪分布配置时,有两个属性项需要进一步解释。第一项是fs.defaultFS,设置为hdfs://localhost/,用于设置Hadoop的默认文件系统。⑤文件系统是由URI指定的,这里我们已使用hdfs URI来配置HDFS为Hadoop的默认文件系统。HDFS的守护程序通过该属性项来确定HDFS namenode的主机及端口。我们将在localhost默认的HDFS端口8020上运行namenode。这样一来,HDFS客户端可以通过该属性得知namenode在哪里运行进而连接到它。

第二个属性dfs.replication,我们设为1,这样一来,HDFS就不会按默认设置将文件系统块复本设为3。在单独一个datanode上运行时,HDFS无法将块复制到3个datanode上,所以会持续给出块复本不足的警告。设置这个属性之后,上述问题就不会再出现了。

文件系统的基本操作

至此,文件系统已经可以使用了,我们可以执行所有常用的文件系统操作,例如,读取文件,新建目录,移动文件,删除数据,列出目录,等等。可以输入hadoop fs -help命令获取每个命令的详细帮助文件。

首先从本地文件系统将一个文件复制到HDFS:

% hadoop fs -copyFromLocal input/docs/quangle.txt hdfs://localhost/user/tom/quangle.txt

 

该命令调用Hadoop文件系统的shell命令fs,后者提供了一系列子命令,在这个例子中,我们执行的是-copyFromLocal。本地文件quangle.txt被复制到运行在localhost上的 HDFS实例中,路径为/user/tom/quangle.txt。事实上,我们可以简化命令格式以省略主机的URI并使用默认设置,即省略hdfs://localhost,因为该项已在core-site.xml中指定。

 % hadoop fs -copyFromLocal input/docs/quangle.txt /user/tom/quangle.txt

 

我们也可以使用相对路径,并将文件复制到HDFS的home目录中,本例中为/user/tom:

 % hadoop fs -copyFromLocal input/docs/quangle.txt quangle.txt

 

我们把文件复制回本地文件系统,并检查是否一致:

% hadoop fs -copyToLocal quangle.txt quangle.copy.txt 

% md5 input/docs/quangle.txt quangle.copy.txt 

 MD5 (input/docs/quangle.txt) = e7891a2627cf263a079fb0f18256ffb2 

 MD5 (quangle.copy.txt) = e7891a2627cf263a079fb0f18256ffb2

 

MD5键值相同,表明这个文件在HDFS之旅中得以幸存并保存完整。

最后,看一下HDFS文件列表。我们新建一个目录,看它在列表中怎么显示:

% hadoop fs -mkdir books 

% hadoop fs -ls . 

Found 2 items 

drwxr-xr-x - tom supergroup 0 2014-10-04 13:22 books 

-rw-r--r-- 1 tom supergroup 119 2014-10-04 13:21 quangle.txt

 

返回的结果信息与Unix命令ls -l的输出结果非常相似,仅有细微差别。第1列显示的是文件模式。第2列是这个文件的备份数(这在传统Unix文件系统是没有的)。由于我们在整个文件系统范围内设置的默认复本数为1,所以这里显示的也都是1。这一列的开头目录为空,因为本例中没有使用复本的概念,目录作为元数据保存在namenode中,而非datanode中。第3列和第4列显示文件的所属用户和组别。第5列是文件的大小,以字节为单位,目录为0。第6列和第7列是文件的最后修改日期与时间。最后,第8列是文件或目录的名称。

HDFS中的文件访问权限

针对文件和目录,HDFS的权限模式与POSIX 的权限模式非常相似。

一共提供三类权限模式:只读权限(r)、写入权限(w)和可执行权限(x)。读取文件或列出目录内容时需要只读权限。写入一个文件或是在一个目录上新建及删

除文件或目录,需要写入权限。对于文件而言,可执行权限可以忽略,因为你不能在HDFS中执行文件(与POSIX不同),但在访问一个目录的子项时需要该权限。

每个文件和目录都有所属用户(owner)、所属组别(group)及模式(mode)。这个模式是由所属用户的权限、组内成员的权限及其他用户的权限组成的。

在默认情况下,Hadoop运行时安全措施处于停用模式,意味着客户端身份是没有经过认证的。由于客户端是远程的,一个客户端可以在远程系统上通过创建和任一个合法用户同名的账号来进行访问。当然,如果安全设施处于启用模式,这些都是不可能的(详情见10.4节关于安全性的有关论述)。无论怎样,为防止用户或自动工具及程序意外修改或删除文件系统的重要部分,启用权限控制还是很重要的(这也是默认的配置,参见dfs.permissions.enabled属性)

如果启用权限检查,就会检查所属用户权限,以确认客户端的用户名与所属用户是否匹配,另外也将检查所属组别权限,以确认该客户端是否是该用户组的成员;若不符,则检查其他权限。

这里有一个超级用户(super-user)的概念,超级用户是namenode进程的标识。对于超级用户,系统不会执行任何权限检查。3.4  Hadoop文件系统

Hadoop有一个抽象的文件系统概念,HDFS只是其中的一个实现。Java抽象类 org.apache.hadoop.fs.FileSystem定义了Hadoop 中一个文件系统的客户端接口,并且该抽象类有几个具体实现,其中和Hadoop紧密相关的见表3-1。

表3-1.  Hadoop文件系统

文件系统URI方案Java实现(都在org.apache.

hadoop包中)描述Localfilefs.LocalFileSystem使用客户端校验和的本地磁盘文件系统。使用RawLocalFileSystem表示无校验和的本地磁盘文件系统。详情参见5.1.2节HDFShdfshdfs.DistributedFileSystemHadoop 的分布式文件系统。将HDFS设计成与MapReduce结合使用,可以实现高性能

                                                                                                                     续表

文件系统URI方案Java实现(都在org.apache.

hadoop包中)描述WebHDFSWebhdfsHdfs.web.WebHdfsFileSystem基于HTTP的文件系统,提供对HDFS的认证读/写访问。详情参见3.4节相关内容Secure WebHDFSswebhdfshdfs.web.SWebHdfsFileSystemWebHDFS的HTTPS版本HARharfs.HarFileSystem一个构建在其他文件系统之上用于文件存档的文件系统。Hadoop存档文件系统通常用于将HDFS中的多个文件打包成一个存档文件,以减少namenode内存的使用。使用hadoop的achive命令来创建HAR 文件Viewviewfsviewfs.ViewFileSystem针对其他Hadoop文件系统的客户端挂载表。通常用于为联邦namenode创建挂载点,详情参见3.2.4节FTPftpfs.ftp.FTPFileSystem由FTP 服务器支持的文件系统S3S3afs.s3a.S3AFileSystem由Amazon S3 支持的文件系统。替代老版本的s3n(S3 原生)实现Azurewasbfs.azure.NativeAzure

FileSystem由Microsoft Azure支持的文件系统Swiftswiftfs.swift.snative.

SwiftNativeFileSystem由OpenStack Swift支持的文件系统

Hadoop 对文件系统提供了许多接口,它一般使用URI 方案来选取合适的文件系统实例进行交互。举例来说,我们在前一小节中遇到的文件系统命令行解释器可以操作所有的Hadoop 文件系统命令。要想列出本地文件系统根目录下的文件,可以输入以下命令:

% hadoop fs -ls file:///

 

尽管运行的MapReduce程序可以访问任何文件系统(有时也很方便),但在处理大数据集时,建议你还是选择一个有数据本地优化的分布式文件系统,如HDFS(参见2.4节)。

接口

Hadoop是用Java写的,通过Java API可以调用大部分Hadoop文件系统的交互操作。例如,文件系统的命令解释器就是一个Java 应用,它使用Java 的FileSystem类来提供文件系统操作。其他一些文件系统接口也将在本小节中做简单介绍。这些接口通常与HDFS一同使用,因为Hadoop中的其他文件系统一般都有访问基本文件系统的工具(对于FTP,有FTP客户端;对于S3,有S3工具,等等),但它们大多数都能用于任何Hadoop 文件系统。

1. HTTP

Hadoop以Java API的形式提供文件系统访问接口,非Java开发的应用访问HDFS会很不方便。由WebHDFS协议提供的HTTP REST API则使得其他语言开发的应用能够更方便地与HDFS交互。注意,HTTP接口比原生的Java客户端要慢,所以不到万不得已,尽量不要用它来传输特大数据。

通过HTTP来访问HDFS有两种方法:直接访问,HDFS守护进程直接服务于来自客户端的HTTP请求;通过代理(一个或多个)访问,客户端通常使用DistributedFileSystem API访问HDFS。这两种方法如图3-1所示。两者都使用了WebHDFS协议。

图3-1. 通过HTTP直接访问HDFS或者通过多个HDFS代理访问HDFS

在第一种情况中,namenode和datanode内嵌的web服务器作为WebHDFS的端节点运行。(由于dfs.webhdfs.enabled被设置为true,WebHDFS默认是启用状态。)文件元数据操作由namenode管理,文件读(写)操作首先被发往namenode,由namenode发送一个HTTP重定向至某个客户端,指示以流方式传输文件数据的目的或源datanode。

第二种方法依靠一个或者多个独立代理服务器通过HTTP访问HDFS。(由于代理服务是无状态的,因此可以运行在标准的负载均衡器之后。)所有到集群的网络通信都需要经过代理,因此客户端从来不直接访问namenode或datanode。使用代理服务器后可以使用更严格的防火墙策略和带宽限制策略。通常情况下都通过代理服务器,实现在不同数据中心中部署的Hadoop集群之间的数据传输,或从外部网络访问云端运行的Hadoop集群。

HttpFS 代理提供和WebHDFS相同的HTTP(和HTTPS)接口, 这样客户端能够通过webhdfs(swebhdfs) URI访问这两类接口。HttpFS 代理的启动独立于namenode和datanode的守护进程,使用httpfs.sh脚本,默认在一个不同的端口上监听(端口号14000)。

2. C语言

Hadoop提供了一个名为libhdfs的C语言库,该语言库是Java FileSystem接口类的一个镜像(它被写成访问HDFS的C语言库,但其实它可以访问任何一个Hadoop文件系统)。它使用Java原生接口(JNI, Java Native Interface)调用Java 文件系统客户端。同样还有一个libwebhdfs库,该库使用了前述章节描述的WebHDFS接口。

这个C语言API 与Java的API非常相似,但它的开发滞后于Java API,因此目前一些新的特性可能还不支持。可以在Apache Hapdoop二进制压缩发行包的include目录中找到头文件hdfs.h。

Apache Hapdoop二进制压缩包自带预先编译好的libhdfs二进制编码,支持64位Linux。但对于其他平台,需要按照源代码树顶层的BUILDING.txt指南自行编译。

3. NFS

使用Hadoop的NFSv3网关将HDFS挂载为本地客户端的文件系统是可行的。然后你可以使用Unix实用程序(如ls和cat) 与该文件系统交互,上传文件,通过任意一种编程语言调用POSIX 库来访问文件系统。由于HDFS仅能以追加模式写文件,因此可以往文件末尾添加数据,但不能随机修改文件。

关于如何配置和运行NFS网关,以及如何从客户端连接网关,可以参考Hadoop相关文档资料。

4. FUSE

用户空间文件系统(FUSE, Filesystem in Userspace,)允许将用户空间实现的文件系统作为Unix文件系统进行集成。通过使用Hadoop的Fuse-DFS功能模块,HDFS(或任何一个Hadoop 文件系统)均可以作为一个标准的本地文件系统进行挂载。Fuse-DFS是用C语言实现的,使用libhdfs作为访问HDFS的接口。在写操作时,Hadoop NFS网关对于挂载HDFS来说是更健壮的解决方案,相比Fuse-DFS而言应优先选择。

Hadoop权威指南:大数据的存储与分析(第4版) pdf下载声明

本pdf资料下载仅供个人学习和研究使用,不能用于商业用途,请在下载后24小时内删除。如果喜欢,请购买正版

pdf下载地址

版权归出版社和作者所有,下载链接已删除。如果喜欢,请购买正版!

链接地址:Hadoop权威指南:大数据的存储与分析(第4版)