博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Mapreduce报错:Split metadata size exceeded 10000000
阅读量:5283 次
发布时间:2019-06-14

本文共 1128 字,大约阅读时间需要 3 分钟。

报错信息:

Failure Info:Job initialization failed: java.io.IOException: Split metadata size exceeded 10000000.   Aborting job job_201205162059_1073852 at   org.apache.hadoop.mapreduce.split.SplitMetaInfoReader.readSplitMetaInfo(SplitMetaInfoReader.java:48) at   org.apache.hadoop.mapred.JobInProgress.createSplits(JobInProgress.java:817) at   org.apache.hadoop.mapred.JobInProgress.initTasks(JobInProgress.java:711) at   org.apache.hadoop.mapred.JobTracker.initJob(JobTracker.java:4028) at   org.apache.hadoop.mapred.EagerTaskInitializationListener$InitJob.run(EagerTaskInitializationListener.java:79) at   java.util.concurrent.ThreadPoolExecutor$Worker.runTask(ThreadPoolExecutor.java:886) at   java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:908) at java.lang.Thread.run(Thread.java:662)

 

出错原因:该job的job.splitmetainfo文件大小超过限制;

 

1. job.splitmetainfo,该文件记录split的元数据信息,job split ----> HDFS block && slave node

  存放路径位于:${hadoop.tmp.dir}/mapred/staging/${user.name}/.staging/jobId/

 

2. 参数mapreduce.jobtracker.split.metainfo.maxsize控制该文件的最大大小,默认为:10000000(10M)

转载于:https://www.cnblogs.com/wangxiaowei/p/3343298.html

你可能感兴趣的文章
安卓平台接口剖析
查看>>
坏的事情不都会带来坏的结果
查看>>
RPC的基础:调研EOS插件http_plugin
查看>>
第二次团队冲刺第二天
查看>>
bzoj 2257 (JSOI 2009) 瓶子与燃料
查看>>
11)Java abstract class 和 interface
查看>>
使用xrdp或Xmanager 远程连接 CentOS6
查看>>
Linux误删恢复
查看>>
Unity调用Windows窗口句柄,选择文件和目录
查看>>
HashMap循环遍历方式
查看>>
React Native 入门 调试项目
查看>>
C# 通过 Quartz .NET 实现 schedule job 的处理
查看>>
关于java之socket输入流输出流可否放在不同的线程里进行处理
查看>>
目前为止用过的最好的Json互转工具类ConvertJson
查看>>
Day13
查看>>
tensorflow saver简介+Demo with linear-model
查看>>
Luogu_4103 [HEOI2014]大工程
查看>>
Oracle——SQL基础
查看>>
项目置顶随笔
查看>>
Redis的安装与使用
查看>>