MapReduce 的参数优化
资源相关的参数
以下调整参数都在 mapred-site.xml 这个配置文件当中有
注意: 以下参数是在用户自己的 mr 应用程序中配置就可以生效
mapreduce.map.memory.mb: 一个 Map Task 可使用的资源上限(单位:MB),默认为 1024。如果 Map Task 实际使用的资源量超过该值,则会被强制杀死。
mapreduce.reduce.memory.mb: 一个 Reduce Task 可使用的资源上限(单位:MB),默认为 1024。如果 Reduce Task 实际使用的资源量超过该值,则会被强制杀死。
mapred.child.java.opts 配置每个 map 或者 reduce 使用的内存的大小,默认是 200M
mapreduce.map.cpu.vcores: 每个 Map task 可使用的最多 cpu core 数目, 默认值: 1
mapreduce.reduce.cpu.vcores: 每个 Reduce task 可使用的最多 cpu core 数目, 默认值: 1
shuffle 性能优化的关键参数,应在 yarn 启动之前就配置好
mapreduce.task.io.sort.mb 100 //shuffle 的环形缓冲区大小,默认 100m
mapreduce.map.sort.spill.percent 0.8 //环形缓冲区溢出的阈值,默认 80%
应该在 yarn 启动之前就配置在服务器的配置文件中才能生效
以下配置都在 yarn-site.xml 配置文件当中配置
yarn.scheduler.minimum-allocation-mb 1024 给应用程序 container 分配的最小内存
yarn.scheduler.maximum-allocation-mb 8192 给应用程序 container 分配的最大内存
yarn.scheduler.minimum-allocation-vcores 1 container 最小的虚拟内核的个数
yarn.scheduler.maximum-allocation-vcores 32 container 最大的虚拟内核的个数
yarn.nodemanager.resource.memory-mb 8192 每个 nodemanager 给多少内存
容错相关参数
mapreduce.map.maxattempts: 每个 Map Task 最大重试次数,一旦重试参数超过该值,则认为 Map Task 运行失败,默认值:4。
mapreduce.reduce.maxattempts: 每个 Reduce Task 最大重试次数,一旦重试参数超过该值,则认为 Map Task 运行失败,默认值:4。
mapreduce.job.maxtaskfailures.per.tracker: 当失败的 Map Task 失败比例超过该值为,整个作业则失败,默认值为 0. 如果你的应用程序允许丢弃部分输入数据,则该该值设为一个大于 0 的值,比如 5,表示如果有低于 5%的 Map Task 失败(如果一个 Map Task 重试次数超过 mapreduce.map.maxattempts,则认为这个 Map Task 失败,其对应的输入数据将不会产生任何结果),整个作业仍认为成功。
mapreduce.task.timeout: Task 超时时间,默认值为 600000 毫秒,经常需要设置的一个参数,该参数表达的意思为:如果一个 task 在一定时间内没有任何进入,即不会读取新的数据,也没有输出数据,则认为该 task 处于 block 状态,可能是卡住了,也许永远会卡主,为了防止因为用户程序永远 block 住不退出,则强制设置了一个该超时时间(单位毫秒)。如果你的程序对每条输入数据的处理时间过长(比如会访问数据库,通过网络拉取数据等),建议将该参数调大,该参数过小常出现的错误提示是“AttemptID:attempt_14267829456721_123456_m_000224_0 Timed out after 300 secsContainer killed by the ApplicationMaster.”。
版权声明: 本文为 InfoQ 作者【大数据技术指南】的原创文章。
原文链接:【http://xie.infoq.cn/article/10702280022e5b475eba8f883】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论