网站介绍:文章浏览阅读348次,点赞2次,收藏2次。Hadoop阶段面试题HDFSMapReduce1.介绍一下 MR 的工作原理MapTask的工作机制read:通过RecordReader,从输入的InputSplit中解析出一个个kv假设待处理文件/user/input/ss.txt为200m(hadoop默认切片与分块大小为128M)切片大小实现:computeSplitSize(Math.max(minSize,Math.min(maxSize,blocksize)))=blocksize=128M客户端在提交submit前现获_为什么mapreduce不适合实时数据处理?
- 链接地址:https://blog.csdn.net/yangqian1794/article/details/115824194
- 链接标题:Hadoop总结-阶段面试题(持续更新)_为什么mapreduce不适合实时数据处理?-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:4607
- 网站标签:为什么mapreduce不适合实时数据处理?