Hadoop基础教程

Hadoop基础教程
分享
扫描下方二维码分享到微信
打开微信,点击右上角”+“,
使用”扫一扫“即可将网页分享到朋友圈。
作者: [英] ,
2014-01
版次: 1
ISBN: 9787115341334
定价: 65.00
装帧: 平装
开本: 16开
纸张: 胶版纸
页数: 310页
字数: 478千字
正文语种: 简体中文
原版书名: Hadoop beginner’s guide
74人买过
  •   《图灵程序设计丛书:Hadoop基础教程》包括三个主要部分:第1~5章讲述了Hadoop的核心机制及Hadoop的工作模式;第6~7章涵盖了Hadoop更多可操作的内容;第8~11章介绍了Hadoop与其他产品和技术的组合使用。《图灵程序设计丛书:Hadoop基础教程》目的在于帮助读者了解什么是Hadoop,Hadoop是如何工作的,以及如何使用Hadoop从数据中提取有价值的信息,并用它解决大数据问题。   GarryTurkington,拥有14年行业经验,其大部分时间都专注于大型分布式系统的设计与实现。目前,他在ImproveDigital公司担任数据工程部副总裁和公司的首席架构师。他主要负责实现可以存储、处理并从公司海量数据中挖掘潜在价值的系统。在加入ImproveDigital公司之前,他曾在英国公司领导着几个软件开发团队,他们开发的系统用于处理为全世界所有对象创建的目录数据。在此之前,他还曾在英国和美国政府机关任职十年。
      他在北爱尔兰的贝尔法斯特女王大学获得了计算机学士和博士学位,并在美国斯蒂文斯理工学院获得系统工程的工程硕士学位。

      张治起,Hadoop技术爱好者和研究者,对Hadoop技术有非常深刻的认识和理解,热切关注Hadoop和相关大数据处理技术。有着丰富的实践经验,热衷于技术分享,致力于不断探索揭开Hadoop的神秘面纱,帮助更多初学者接触和理解Hadoop。 第1章绪论
    1.1大数据处理
    1.1.1数据的价值
    1.1.2受众较少
    1.1.3一种不同的方法
    1.1.4Hadoop
    1.2基于AmazonWebServices的云计算
    1.2.1云太多了
    1.2.2第三种方法
    1.2.3不同类型的成本
    1.2.4AWS:Amazon的弹性架构
    1.2.5本书内容
    1.3小结

    第2章安装并运行Hadoop
    2.1基于本地Ubuntu主机的Hadoop系统
    2.2实践环节:检查是否已安装JDK
    2.3实践环节:下载Hadoop
    2.4实践环节:安装SSH
    2.5实践环节:使用Hadoop计算圆周率
    2.6实践环节:配置伪分布式模式
    2.7实践环节:修改HDFS的根目录
    2.8实践环节:格式化NameNode
    2.9实践环节:启动Hadoop
    2.10实践环节:使用HDFS
    2.11实践环节:MapReduce的经典入门程序——字数统计
    2.12使用弹性MapReduce
    2.13实践环节:使用管理控制台在EMR运行WordCount
    2.13.1使用EMR的其他方式
    2.13.2AWS生态系统
    2.14本地Hadoop与EMRHadoop的对比
    2.15小结

    第3章理解MapReduce
    3.1键值对
    3.1.1具体含义
    3.1.2为什么采用键/值数据
    3.1.3MapReduce作为一系列键/值变换
    3.2MapReduce的HadoopJavaAPI
    3.3编写MapReduce程序
    3.4实践环节:设置classpath
    3.5实践环节:实现WordCount
    3.6实践环节:构建JAR文件
    3.7实践环节:在本地Hadoop集群运行WordCount
    3.8实践环节:在EMR上运行WordCount
    3.8.10.20之前版本的JavaMapReduceAPI
    3.8.2Hadoop提供的mapper和reducer实现
    3.9实践环节:WordCount的简易方法
    3.10查看WordCount的运行全貌
    3.10.1启动
    3.10.2将输入分块
    3.10.3任务分配
    3.10.4任务启动
    3.10.5不断监视JobTracker
    3.10.6mapper的输入
    3.10.7mapper的执行
    3.10.8mapper的输出和reducer的输入
    3.10.9分块
    3.10.10可选分块函数
    3.10.11reducer类的输入
    3.10.12reducer类的执行
    3.10.13reducer类的输出
    3.10.14关机
    3.10.15这就是MapReduce的全部
    3.10.16也许缺了combiner
    3.11实践环节:使用combiner编写WordCount
    3.12实践环节:更正使用combiner的WordCount
    3.13Hadoop专有数据类型
    3.13.1Writable和Writable-Comparable接口
    3.13.2wrapper类介绍
    3.14实践环节:使用Writable包装类
    3.15输入/输出
    3.15.1文件、split和记录
    3.15.2InputFormat和RecordReader
    3.15.3Hadoop提供的InputFormat
    3.15.4Hadoop提供的RecordReader
    3.15.5OutputFormat和Record-Writer
    3.15.6Hadoop提供的OutputFormat
    3.15.7别忘了Sequencefiles
    3.16小结

    第4章开发MapReduce程序
    4.1使用非Java语言操作Hadoop
    4.1.1HadoopStreaming工作原理
    4.1.2使用HadoopStreaming的原因
    4.2实践环节:使用Streaming实现Word-Count
    4.3分析大数据集
    4.3.1获取UFO目击事件数据集
    4.3.2了解数据集
    4.4实践环节:统计汇总UFO数据
    4.5实践环节:统计形状数据
    4.6实践环节:找出目击事件的持续时间与UFO形状的关系
    4.7实践环节:在命令行中执行形状/时间分析
    4.8实践环节:使用ChainMapper进行字段验证/分析
    4.9实践环节:使用DistributedCache改进地点输出
    4.10计数器、状态和其他输出
    4.11实践环节:创建计数器、任务状态和写入日志
    4.12小结

    第5章高级MapReduce技术
    5.1初级、高级还是中级
    5.2多数据源联结
    5.2.1不适合执行联结操作的情况
    5.2.2map端联结与reduce端联结的对比
    5.2.3匹配账户与销售信息
    5.3实践环节:使用MultipleInputs实现reduce端联结
    5.3.1实现map端联结
    5.3.2是否进行联结
    5.4图算法
    5.4.1Graph
    5.4.2图和MapReduce
    5.4.3图的表示方法
    5.5实践环节:图的表示
    5.6实践环节:创建源代码
    5.7实践环节:第一次运行作业
    5.8实践环节:第二次运行作业
    5.9实践环节:第三次运行作业
    5.10实践环节:第四次也是最后一次运行作业
    5.10.1运行多个作业
    5.10.2关于图的终极思考
    5.11使用语言无关的数据结构
    5.11.1候选技术
    5.11.2Avro简介
    5.12实践环节:获取并安装Avro
    5.13实践环节:定义模式
    5.14实践环节:使用Ruby创建Avro源数据
    5.15实践环节:使用Java语言编程操作Avro数据
    5.16实践环节:在MapReduce中统计UFO形状
    5.17实践环节:使用Ruby检查输出数据
    5.18实践环节:使用Java检查输出数据
    5.19小结

    第6章故障处理
    6.1故障
    6.1.1拥抱故障
    6.1.2至少不怕出现故障
    6.1.3严禁模仿
    6.1.4故障类型
    6.1.5Hadoop节点故障
    6.2实践环节:杀死DataNode进程
    6.3实践环节:复制因子的作用
    6.4实践环节:故意造成数据块丢失
    6.5实践环节:杀死TaskTracker进程
    6.6实践环节:杀死JobTracker
    6.7实践环节:杀死NameNode进程
    6.8实践环节:引发任务故障
    6.9数据原因造成的任务故障
    6.10实践环节:使用skip模式处理异常数据
    6.11小结

    第7章系统运行与维护
    7.1关于EMR的说明
    7.2Hadoop配置属性
    7.3实践环节:浏览默认属性
    7.3.1附加的属性元素
    7.3.2默认存储位置
    7.3.3设置Hadoop属性的几种方式
    7.4集群设置
    7.4.1为集群配备多少台主机
    7.4.2特殊节点的需求
    7.4.3不同类型的存储系统
    7.4.4Hadoop的网络配置
    7.5实践环节:查看默认的机柜配置
    7.6实践环节:报告每台主机所在机柜
    7.7集群访问控制
    7.8实践环节:展示Hadoop的默认安全机制
    7.9管理NameNode
    7.10实践环节:为fsimage文件新增一个存储路径
    7.11实践环节:迁移到新的NameNode主机
    7.12管理HDFS
    7.12.1数据写入位置
    7.12.2使用平衡器
    7.13MapReduce管理
    7.13.1通过命令行管理作业
    7.13.2作业优先级和作业调度
    7.14实践环节:修改作业优先级并结束作业运行
    7.15扩展集群规模
    7.15.1提升本地Hadoop集群的计算能力
    7.15.2提升EMR作业流的计算能力
    7.16小结

    第8章Hive:数据的关系视图
    8.1Hive概述
    8.1.1为什么使用Hive
    8.1.2感谢Facebook
    8.2设置Hive
    8.2.1准备工作
    8.2.2下载Hive
    8.3实践环节:安装Hive
    8.4使用Hive
    8.5实践环节:创建UFO数据表
    8.6实践环节:在表中插入数据
    8.7实践环节:验证表
    8.8实践环节:用正确的列分隔符重定义表
    8.9实践环节:基于现有文件创建表
    8.10实践环节:执行联结操作
    8.11实践环节:使用视图
    8.12实践环节:导出查询结果
    8.13实践环节:制作UFO目击事件分区表
    8.13.1分桶、归并和排序
    8.13.2用户自定义函数
    8.14实践环节:新增用户自定义函数
    8.14.1是否进行预处理
    8.14.2Hive和Pig的对比
    8.14.3未提到的内容
    8.15基于AmazonWebServices的Hive
    8.16实践环节:在EMR上分析UFO数据
    8.16.1在开发过程中使用交互式作业流
    8.16.2与其他AWS产品的集成
    8.17小结

    第9章与关系数据库协同工作
    9.1常见数据路径
    9.1.1Hadoop用于存储档案
    9.1.2使用Hadoop进行数据预处理
    9.1.3使用Hadoop作为数据输入工具
    9.1.4数据循环
    9.2配置MySQL
    9.3实践环节:安装并设置MySQL
    9.4实践环节:配置MySQL允许远程连接
    9.5实践环节:建立员工数据库
    9.6把数据导入Hadoop
    9.6.1使用MySQL工具手工导入
    9.6.2在mapper中访问数据库
    9.6.3更好的方法:使用Sqoop
    9.7实践环节:下载并配置Sqoop
    9.8实践环节:把MySQL的数据导入HDFS
    9.9实践环节:把MySQL数据导出到Hive
    9.10实践环节:有选择性的导入数据
    9.11实践环节:使用数据类型映射
    9.12实践环节:通过原始查询导入数据
    9.13从Hadoop导出数据
    9.13.1在reducer中把数据写入关系数据库
    9.13.2利用reducer输出SQL数据文件
    9.13.3仍是最好的方法
    9.14实践环节:把Hadoop数据导入MySQL
    9.15实践环节:把Hive数据导入MySQL
    9.16实践环节:改进mapper并重新运行数据导出命令
    9.17在AWS上使用Sqoop
    9.18小结

    第10章使用Flume收集数据
    10.1关于AWS的说明
    10.2无处不在的数据
    10.2.1数据类别
    10.2.2把网络流量导入Hadoop
    10.3实践环节:把网络服务器数据导入Hadoop
    10.3.1把文件导入Hadoop
    10.3.2潜在的问题
    10.4ApacheFlume简介
    10.5实践环节:安装并配置Flume
    10.6实践环节:把网络流量存入日志文件
    10.7实践环节:把日志输出到控制台
    10.8实践环节:把命令的执行结果写入平面文件
    10.9实践环节:把远程文件数据写入本地平面文件
    10.9.1信源、信宿和信道
    10.9.2Flume配置文件
    10.9.3一切都以事件为核心
    10.10实践环节:把网络数据写入HDFS
    10.11实践环节:加入时间戳
    10.12实践环节:多层Flume网络
    10.13实践环节:把事件写入多个信宿
    10.13.1选择器的类型
    10.13.2信宿故障处理
    10.13.3使用简单元件搭建复杂系统
    10.14更高的视角
    10.14.1数据的生命周期
    10.14.2集结数据
    10.14.3调度
    10.15小结

    第11章展望未来
    11.1全书回顾
    11.2即将到来的Hadoop变革
    11.3其他版本的Hadoop软件包
    11.4其他Apache项目
    11.4.1HBase
    11.4.2Oozie
    11.4.3Whir
    11.4.4Mahout
    11.4.5MRUnit
    11.5其他程序设计模式
    11.5.1Pig
    11.5.2Cascading
    11.6AWS资源
    11.6.1在EMR上使用HBase
    11.6.2SimpleDB
    11.6.3DynamoDB
    11.7获取信息的渠道
    11.7.1源代码
    11.7.2邮件列表和论坛
    11.7.3LinkedIn群组
    11.7.4Hadoop用户群
    11.7.5会议
    11.8小结
    随堂测验答案
  • 内容简介:
      《图灵程序设计丛书:Hadoop基础教程》包括三个主要部分:第1~5章讲述了Hadoop的核心机制及Hadoop的工作模式;第6~7章涵盖了Hadoop更多可操作的内容;第8~11章介绍了Hadoop与其他产品和技术的组合使用。《图灵程序设计丛书:Hadoop基础教程》目的在于帮助读者了解什么是Hadoop,Hadoop是如何工作的,以及如何使用Hadoop从数据中提取有价值的信息,并用它解决大数据问题。
  • 作者简介:
      GarryTurkington,拥有14年行业经验,其大部分时间都专注于大型分布式系统的设计与实现。目前,他在ImproveDigital公司担任数据工程部副总裁和公司的首席架构师。他主要负责实现可以存储、处理并从公司海量数据中挖掘潜在价值的系统。在加入ImproveDigital公司之前,他曾在英国公司领导着几个软件开发团队,他们开发的系统用于处理为全世界所有对象创建的目录数据。在此之前,他还曾在英国和美国政府机关任职十年。
      他在北爱尔兰的贝尔法斯特女王大学获得了计算机学士和博士学位,并在美国斯蒂文斯理工学院获得系统工程的工程硕士学位。

      张治起,Hadoop技术爱好者和研究者,对Hadoop技术有非常深刻的认识和理解,热切关注Hadoop和相关大数据处理技术。有着丰富的实践经验,热衷于技术分享,致力于不断探索揭开Hadoop的神秘面纱,帮助更多初学者接触和理解Hadoop。
  • 目录:
    第1章绪论
    1.1大数据处理
    1.1.1数据的价值
    1.1.2受众较少
    1.1.3一种不同的方法
    1.1.4Hadoop
    1.2基于AmazonWebServices的云计算
    1.2.1云太多了
    1.2.2第三种方法
    1.2.3不同类型的成本
    1.2.4AWS:Amazon的弹性架构
    1.2.5本书内容
    1.3小结

    第2章安装并运行Hadoop
    2.1基于本地Ubuntu主机的Hadoop系统
    2.2实践环节:检查是否已安装JDK
    2.3实践环节:下载Hadoop
    2.4实践环节:安装SSH
    2.5实践环节:使用Hadoop计算圆周率
    2.6实践环节:配置伪分布式模式
    2.7实践环节:修改HDFS的根目录
    2.8实践环节:格式化NameNode
    2.9实践环节:启动Hadoop
    2.10实践环节:使用HDFS
    2.11实践环节:MapReduce的经典入门程序——字数统计
    2.12使用弹性MapReduce
    2.13实践环节:使用管理控制台在EMR运行WordCount
    2.13.1使用EMR的其他方式
    2.13.2AWS生态系统
    2.14本地Hadoop与EMRHadoop的对比
    2.15小结

    第3章理解MapReduce
    3.1键值对
    3.1.1具体含义
    3.1.2为什么采用键/值数据
    3.1.3MapReduce作为一系列键/值变换
    3.2MapReduce的HadoopJavaAPI
    3.3编写MapReduce程序
    3.4实践环节:设置classpath
    3.5实践环节:实现WordCount
    3.6实践环节:构建JAR文件
    3.7实践环节:在本地Hadoop集群运行WordCount
    3.8实践环节:在EMR上运行WordCount
    3.8.10.20之前版本的JavaMapReduceAPI
    3.8.2Hadoop提供的mapper和reducer实现
    3.9实践环节:WordCount的简易方法
    3.10查看WordCount的运行全貌
    3.10.1启动
    3.10.2将输入分块
    3.10.3任务分配
    3.10.4任务启动
    3.10.5不断监视JobTracker
    3.10.6mapper的输入
    3.10.7mapper的执行
    3.10.8mapper的输出和reducer的输入
    3.10.9分块
    3.10.10可选分块函数
    3.10.11reducer类的输入
    3.10.12reducer类的执行
    3.10.13reducer类的输出
    3.10.14关机
    3.10.15这就是MapReduce的全部
    3.10.16也许缺了combiner
    3.11实践环节:使用combiner编写WordCount
    3.12实践环节:更正使用combiner的WordCount
    3.13Hadoop专有数据类型
    3.13.1Writable和Writable-Comparable接口
    3.13.2wrapper类介绍
    3.14实践环节:使用Writable包装类
    3.15输入/输出
    3.15.1文件、split和记录
    3.15.2InputFormat和RecordReader
    3.15.3Hadoop提供的InputFormat
    3.15.4Hadoop提供的RecordReader
    3.15.5OutputFormat和Record-Writer
    3.15.6Hadoop提供的OutputFormat
    3.15.7别忘了Sequencefiles
    3.16小结

    第4章开发MapReduce程序
    4.1使用非Java语言操作Hadoop
    4.1.1HadoopStreaming工作原理
    4.1.2使用HadoopStreaming的原因
    4.2实践环节:使用Streaming实现Word-Count
    4.3分析大数据集
    4.3.1获取UFO目击事件数据集
    4.3.2了解数据集
    4.4实践环节:统计汇总UFO数据
    4.5实践环节:统计形状数据
    4.6实践环节:找出目击事件的持续时间与UFO形状的关系
    4.7实践环节:在命令行中执行形状/时间分析
    4.8实践环节:使用ChainMapper进行字段验证/分析
    4.9实践环节:使用DistributedCache改进地点输出
    4.10计数器、状态和其他输出
    4.11实践环节:创建计数器、任务状态和写入日志
    4.12小结

    第5章高级MapReduce技术
    5.1初级、高级还是中级
    5.2多数据源联结
    5.2.1不适合执行联结操作的情况
    5.2.2map端联结与reduce端联结的对比
    5.2.3匹配账户与销售信息
    5.3实践环节:使用MultipleInputs实现reduce端联结
    5.3.1实现map端联结
    5.3.2是否进行联结
    5.4图算法
    5.4.1Graph
    5.4.2图和MapReduce
    5.4.3图的表示方法
    5.5实践环节:图的表示
    5.6实践环节:创建源代码
    5.7实践环节:第一次运行作业
    5.8实践环节:第二次运行作业
    5.9实践环节:第三次运行作业
    5.10实践环节:第四次也是最后一次运行作业
    5.10.1运行多个作业
    5.10.2关于图的终极思考
    5.11使用语言无关的数据结构
    5.11.1候选技术
    5.11.2Avro简介
    5.12实践环节:获取并安装Avro
    5.13实践环节:定义模式
    5.14实践环节:使用Ruby创建Avro源数据
    5.15实践环节:使用Java语言编程操作Avro数据
    5.16实践环节:在MapReduce中统计UFO形状
    5.17实践环节:使用Ruby检查输出数据
    5.18实践环节:使用Java检查输出数据
    5.19小结

    第6章故障处理
    6.1故障
    6.1.1拥抱故障
    6.1.2至少不怕出现故障
    6.1.3严禁模仿
    6.1.4故障类型
    6.1.5Hadoop节点故障
    6.2实践环节:杀死DataNode进程
    6.3实践环节:复制因子的作用
    6.4实践环节:故意造成数据块丢失
    6.5实践环节:杀死TaskTracker进程
    6.6实践环节:杀死JobTracker
    6.7实践环节:杀死NameNode进程
    6.8实践环节:引发任务故障
    6.9数据原因造成的任务故障
    6.10实践环节:使用skip模式处理异常数据
    6.11小结

    第7章系统运行与维护
    7.1关于EMR的说明
    7.2Hadoop配置属性
    7.3实践环节:浏览默认属性
    7.3.1附加的属性元素
    7.3.2默认存储位置
    7.3.3设置Hadoop属性的几种方式
    7.4集群设置
    7.4.1为集群配备多少台主机
    7.4.2特殊节点的需求
    7.4.3不同类型的存储系统
    7.4.4Hadoop的网络配置
    7.5实践环节:查看默认的机柜配置
    7.6实践环节:报告每台主机所在机柜
    7.7集群访问控制
    7.8实践环节:展示Hadoop的默认安全机制
    7.9管理NameNode
    7.10实践环节:为fsimage文件新增一个存储路径
    7.11实践环节:迁移到新的NameNode主机
    7.12管理HDFS
    7.12.1数据写入位置
    7.12.2使用平衡器
    7.13MapReduce管理
    7.13.1通过命令行管理作业
    7.13.2作业优先级和作业调度
    7.14实践环节:修改作业优先级并结束作业运行
    7.15扩展集群规模
    7.15.1提升本地Hadoop集群的计算能力
    7.15.2提升EMR作业流的计算能力
    7.16小结

    第8章Hive:数据的关系视图
    8.1Hive概述
    8.1.1为什么使用Hive
    8.1.2感谢Facebook
    8.2设置Hive
    8.2.1准备工作
    8.2.2下载Hive
    8.3实践环节:安装Hive
    8.4使用Hive
    8.5实践环节:创建UFO数据表
    8.6实践环节:在表中插入数据
    8.7实践环节:验证表
    8.8实践环节:用正确的列分隔符重定义表
    8.9实践环节:基于现有文件创建表
    8.10实践环节:执行联结操作
    8.11实践环节:使用视图
    8.12实践环节:导出查询结果
    8.13实践环节:制作UFO目击事件分区表
    8.13.1分桶、归并和排序
    8.13.2用户自定义函数
    8.14实践环节:新增用户自定义函数
    8.14.1是否进行预处理
    8.14.2Hive和Pig的对比
    8.14.3未提到的内容
    8.15基于AmazonWebServices的Hive
    8.16实践环节:在EMR上分析UFO数据
    8.16.1在开发过程中使用交互式作业流
    8.16.2与其他AWS产品的集成
    8.17小结

    第9章与关系数据库协同工作
    9.1常见数据路径
    9.1.1Hadoop用于存储档案
    9.1.2使用Hadoop进行数据预处理
    9.1.3使用Hadoop作为数据输入工具
    9.1.4数据循环
    9.2配置MySQL
    9.3实践环节:安装并设置MySQL
    9.4实践环节:配置MySQL允许远程连接
    9.5实践环节:建立员工数据库
    9.6把数据导入Hadoop
    9.6.1使用MySQL工具手工导入
    9.6.2在mapper中访问数据库
    9.6.3更好的方法:使用Sqoop
    9.7实践环节:下载并配置Sqoop
    9.8实践环节:把MySQL的数据导入HDFS
    9.9实践环节:把MySQL数据导出到Hive
    9.10实践环节:有选择性的导入数据
    9.11实践环节:使用数据类型映射
    9.12实践环节:通过原始查询导入数据
    9.13从Hadoop导出数据
    9.13.1在reducer中把数据写入关系数据库
    9.13.2利用reducer输出SQL数据文件
    9.13.3仍是最好的方法
    9.14实践环节:把Hadoop数据导入MySQL
    9.15实践环节:把Hive数据导入MySQL
    9.16实践环节:改进mapper并重新运行数据导出命令
    9.17在AWS上使用Sqoop
    9.18小结

    第10章使用Flume收集数据
    10.1关于AWS的说明
    10.2无处不在的数据
    10.2.1数据类别
    10.2.2把网络流量导入Hadoop
    10.3实践环节:把网络服务器数据导入Hadoop
    10.3.1把文件导入Hadoop
    10.3.2潜在的问题
    10.4ApacheFlume简介
    10.5实践环节:安装并配置Flume
    10.6实践环节:把网络流量存入日志文件
    10.7实践环节:把日志输出到控制台
    10.8实践环节:把命令的执行结果写入平面文件
    10.9实践环节:把远程文件数据写入本地平面文件
    10.9.1信源、信宿和信道
    10.9.2Flume配置文件
    10.9.3一切都以事件为核心
    10.10实践环节:把网络数据写入HDFS
    10.11实践环节:加入时间戳
    10.12实践环节:多层Flume网络
    10.13实践环节:把事件写入多个信宿
    10.13.1选择器的类型
    10.13.2信宿故障处理
    10.13.3使用简单元件搭建复杂系统
    10.14更高的视角
    10.14.1数据的生命周期
    10.14.2集结数据
    10.14.3调度
    10.15小结

    第11章展望未来
    11.1全书回顾
    11.2即将到来的Hadoop变革
    11.3其他版本的Hadoop软件包
    11.4其他Apache项目
    11.4.1HBase
    11.4.2Oozie
    11.4.3Whir
    11.4.4Mahout
    11.4.5MRUnit
    11.5其他程序设计模式
    11.5.1Pig
    11.5.2Cascading
    11.6AWS资源
    11.6.1在EMR上使用HBase
    11.6.2SimpleDB
    11.6.3DynamoDB
    11.7获取信息的渠道
    11.7.1源代码
    11.7.2邮件列表和论坛
    11.7.3LinkedIn群组
    11.7.4Hadoop用户群
    11.7.5会议
    11.8小结
    随堂测验答案
查看详情
系列丛书 / 更多
Hadoop基础教程
机器学习实战
[美]Peter Harrington 著;李锐、李鹏、曲亚东 译
Hadoop基础教程
图灵程序设计丛书:Python基础教程
[挪威]Magnus Lie Hetland 著;司维、曾军崴、谭颖华 译
Hadoop基础教程
JavaScript高级程序设计(第3版)
[美]Nicholas C.Zakas 著;李松峰、曹力 译
Hadoop基础教程
Python编程:从入门到实践
[美]埃里克·马瑟斯(Eric Matthes) 著;袁国忠 译
Hadoop基础教程
R语言实战(第2版)
[美]卡巴科弗(Robert I. Kabacoff) 著;王小宁、刘撷芯、黄俊文 译
Hadoop基础教程
算法(第4版)
[美]Robert、[美]Kevin Wayne 著;谢路云 译
Hadoop基础教程
大数据:互联网大规模数据挖掘与分布式处理
[美]Anand、[美]Jeffrey David Ullman 著;王斌 译
Hadoop基础教程
Spark快速大数据分析
[美]卡劳(Holden Karau)、[美]肯维尼斯科(Andy Konwinski)、[美]温德尔(Patrick Wendell)、[加拿大]扎哈里亚(Matei Zaharia) 著;王道远 译
Hadoop基础教程
图解HTTP
[日]上野·宣 著;于均良 译
Hadoop基础教程
MySQL必知必会
[英]福塔(Ben Forta) 著;刘晓霞、钟鸣 译
Hadoop基础教程
Objective-C基础教程 第2版
[美]Scott、[美]Waqar、[美]Mark Dalrymple 著;周庆成 译
Hadoop基础教程
算法图解
袁国忠 译
相关图书 / 更多
Hadoop基础教程
Hadoop技术与应用()
徐鲁辉
Hadoop基础教程
Hadoop生态案例详解与项目实战
王盟 王新强
Hadoop基础教程
HarmonyOS移动应用开发(ArkTS版)
刘安战;余雨萍;陈争艳
Hadoop基础教程
Hadoop大数据分布式计算框架--原理与应用
杨成伟;祝翠玲;刘位龙
Hadoop基础教程
Hadoop大数据平台搭建与应用(工作手册式)(微课版)
时东晓
Hadoop基础教程
Hadoop大数据平台构建与应用(第2版)
米洪 陈永
Hadoop基础教程
Hadoop大数据技术与项目实战
王小洁
Hadoop基础教程
HarmonyOS应用程序开发与实战(Java版)
姚信威
Hadoop基础教程
Hadoop简明教程
刘科峰
Hadoop基础教程
Harper儿童皮肤病学(上下卷),第4版(翻译版)
马琳;王华;姚志荣;徐子刚
Hadoop基础教程
Hadoop大数据技术原理与应用(第2版)
黑马程序员
Hadoop基础教程
Hadoop生态系统及开发
深圳市讯方技术股份有限公司
您可能感兴趣 / 更多
Hadoop基础教程
国富论(精装典藏版上下册套装2册)
[英]亚当·斯密
Hadoop基础教程
英雄和傻瓜
[英]克里斯·沃梅尔/著绘常立/译
Hadoop基础教程
心悦读丛书·抑郁自救手册:打破强者诅咒
[英]蒂姆·坎托弗
Hadoop基础教程
与陈词滥调一战(英国文坛教父马丁·艾米斯三十年经典书评合集 定格严肃书评的黄金年代)
[英]马丁·艾米斯
Hadoop基础教程
甘地
[英]比库·帕雷赫(Bhikhu Parekh)
Hadoop基础教程
DK探索百科系列:地球+生命+文明(精装全3册)
[英]马特·特纳;[英]约翰·伍德沃德;[英]约翰·法恩登
Hadoop基础教程
馅饼里包了一块天
[英]琼·艾肯
Hadoop基础教程
给宝宝的第一套启蒙认知翻翻书(全5册) 麦克米伦世纪
[英]罗德·坎贝尔 著
Hadoop基础教程
妈妈说,今天晚餐是龙虾怪(奇想国童书)
[英]麦克·巴内特 著;李剑敏 译;[美]珍·克拉丝 绘
Hadoop基础教程
诺奖作家给孩子的阅读课·亲近自然(3-9年级,莫言余华的文学启蒙,垫高阅读起点,提升作文能力)
[英]吉卜林等
Hadoop基础教程
社会营销手册
[英]杰勒德·黑斯廷斯(Gerard Hastings),[英]凯瑟琳·安格斯(Kathryn Angus),[美]卡罗尔·布莱恩特(Carol Bryant)
Hadoop基础教程
人体维护说明书
[英]格雷厄姆·劳顿 后浪