Hadoop总结-阶段面试题(持续更新)_为什么mapreduce不适合实时数据处理?-CSDN博客

网站介绍:文章浏览阅读348次,点赞2次,收藏2次。Hadoop阶段面试题HDFSMapReduce1.介绍一下 MR 的工作原理MapTask的工作机制read:通过RecordReader,从输入的InputSplit中解析出一个个kv假设待处理文件/user/input/ss.txt为200m(hadoop默认切片与分块大小为128M)切片大小实现:computeSplitSize(Math.max(minSize,Math.min(maxSize,blocksize)))=blocksize=128M客户端在提交submit前现获_为什么mapreduce不适合实时数据处理?