Good Good code,Day Day up
PearLi's Blog
C++博客
首页
新随笔
联系
聚合
管理
统计
随笔 - 50
文章 - 42
评论 - 147
引用 - 0
留言簿
(6)
给我留言
查看公开留言
查看私人留言
随笔分类
Algorithm(5)
(rss)
asp.net(3)
(rss)
C#/.net(3)
(rss)
C++ (22)
(rss)
DSP
(rss)
Linux/Unix (3)
(rss)
perl(2)
(rss)
Translate(2)
(rss)
windows kernel(4)
(rss)
读书杂记(2)
(rss)
文章分类
Algorithm(2)
(rss)
Batch processing(2)
(rss)
C++(20)
(rss)
CUDA
(rss)
DSP(1)
(rss)
Encode&Decode
(rss)
Linux/Unix(10)
(rss)
MFC
(rss)
Version control(1)
(rss)
windows kernel(5)
(rss)
WorkDiary
(rss)
雷达(3)
(rss)
心灵点滴,兼修内外
(rss)
Link
Google Earth Watch
Ntdebugging Blog
搜索
积分与排名
积分 - 162658
排名 - 161
最新评论
1. re: C++堆栈祥解
hao
--李云涛
2. re: 对于c++中常量成员函数,返回常量引用,const_cast的总结[未登录]
{ return (isbn rhs.isbn);}
这里是不是掉东西了?前面的isbn表示什么?
--gong
3. re: 详解virtual table
@xxx
支持,作者怎么还不改过来,怪不得程序读起来怪怪的
--ntwarren
4. re: vmware桥接方式的设置
还是不行啊
--topin
5. re: MSVC++ 对象内存模型深入解析与具体应用 (二)
如果把内存布局画成图就更好了,像《Inside the C++ Object Model》那样。感谢楼主的文章。学习了
--刘伟
阅读排行榜
1. WTL---WxWidget---MFC 何去何从(13965)
2. 详解virtual table(8700)
3. cygwin 使用 (6536)
4. windows session机制深入解析(上)(6414)
5. C++堆栈祥解(5259)
评论排行榜
1. WTL---WxWidget---MFC 何去何从(25)
2. 写了一个关闭电脑屏幕的服务程序(15)
3. 再谈拷贝构造函数(Copy Constructor Function)(12)
4. cygwin 使用 (10)
5. 寻找k大(10)
Hadoop学习笔记一 简要介绍
这里先大致介绍一下Hadoop.
本文大部分内容都是从官网
Hadoop
上来的。其中有一篇
介绍HDFS的pdf文档
,里面对Hadoop介绍的比较全面了。我的这一个系列的Hadoop学习笔记也是从
这里
一步一步进行下来的,同时又参考了网上的很多文章,对学习Hadoop中遇到的问题进行了归纳总结。
言归正传,先说一下Hadoop的来龙去脉。谈到Hadoop就不得不提到
Lucene
和
Nutch
。首先,
Lucene并不是一个应用程序,而是提供了一个纯Java的高性能全文索引引擎工具包
,它可以方便的嵌入到各种实际应用中实现全文搜索/索引功能。
Nutch是一个应用程序,是一个以Lucene为基础实现的搜索引擎应用
,Lucene为Nutch提供了文本搜索和索引的API,Nutch不光有搜索的功能,还有数据抓取的功能。在nutch0.8.0版本之前,Hadoop还属于Nutch的一部分,而从nutch0.8.0开始,将其中实现的NDFS和MapReduce剥离出来成立一个新的开源项目,这就是Hadoop,而nutch0.8.0版本较之以前的Nutch在架构上有了根本性的变化,那就是完全构建在Hadoop的基础之上了。在Hadoop中实现了Google的GFS和MapReduce算法,使Hadoop成为了一个分布式的计算平台。
其实,Hadoop并不仅仅是一个用于存储的分布式文件系统,而是设计用来在由通用计算设备组成的大型集群上执行分布式应用的框架。
Hadoop包含两个部分:
1、HDFS
即Hadoop Distributed File System (Hadoop分布式文件系统)
HDFS具有高容错性,并且可以被部署在低价的硬件设备之上。HDFS很适合那些有大数据集的应用,并且提供了对数据读写的高吞吐率。HDFS是一个master/slave的结构,就通常的部署来说,在master上只运行一个Namenode,而在每一个slave上运行一个Datanode。
HDFS支持传统的层次文件组织结构,同现有的一些文件系统在操作上很类似,比如你可以创建和删除一个文件,把一个文件从一个目录移到另一个目录,重命名等等操作。Namenode管理着整个分布式文件系统,对文件系统的操作(如建立、删除文件和文件夹)都是通过Namenode来控制。
下面是HDFS的结构:
从上面的图中可以看出,Namenode,Datanode,Client之间的通信都是建立在TCP/IP的基础之上的。当Client要执行一个写入的操作的时候,命令不是马上就发送到Namenode,Client首先在本机上临时文件夹中缓存这些数据,当临时文件夹中的数据块达到了设定的Block的值(默认是64M)时,Client便会通知Namenode,Namenode便响应Client的RPC请求,将文件名插入文件系统层次中并且在Datanode中找到一块存放该数据的block,同时将该Datanode及对应的数据块信息告诉Client,Client便这些本地临时文件夹中的数据块写入指定的数据节点。
HDFS采取了副本策略,其目的是为了提高系统的可靠性,可用性。HDFS的副本放置策略是三个副本,一个放在本节点上,一个放在同一机架中的另一个节点上,还有一个副本放在另一个不同的机架中的一个节点上。当前版本的hadoop0.12.0中还没有实现,但是正在进行中,相信不久就可以出来了。
2、MapReduce的实现
MapReduce
是Google 的一项重要技术,它是一个编程模型,用以进行大数据量的计算。对于大数据量的计算,通常采用的处理手法就是并行计算。至少现阶段而言,对许多开发人员来说,并行计算还是一个比较遥远的东西。MapReduce就是一种简化并行计算的编程模型,它让那些没有多少并行计算经验的开发人员也可以开发并行应用。
MapReduce的名字源于这个模型中的两项核心操作:Map和 Reduce。也许熟悉Functional Programming(
函数式编程
)的人见到这两个词会倍感亲切。简单的说来,Map是把一组数据一对一的映射为另外的一组数据,其映射的规则由一个函数来指定,比如对[1, 2, 3, 4]进行乘2的映射就变成了[2, 4, 6, 8]。Reduce是对一组数据进行归约,这个归约的规则由一个函数指定,比如对[1, 2, 3, 4]进行求和的归约得到结果是10,而对它进行求积的归约结果是24。
关于MapReduce的内容,建议看看孟岩的这篇
MapReduce:The Free Lunch Is Not Over!
好了,作为这个系列的第一篇就写这么多了,我也是刚开始接触Hadoop,下一篇就是讲Hadoop的部署,谈谈我在部署Hadoop时遇到的问题,也给大家一个参考,少走点弯路。
posted on 2009-09-03 10:58
pear_li
阅读(264)
评论(0)
编辑
收藏
引用
所属分类:
Algorithm
只有注册用户
登录
后才能发表评论。
【推荐】100%开源!大型工业跨平台软件C++源码提供,建模,组态!
相关文章:
Hadoop学习笔记一 简要介绍
Map Reduce - the Free Lunch is not over?
网站导航:
博客园
IT新闻
BlogJava
知识库
博问
管理