写点什么

MapReduce 的参数优化

发布于: 20 小时前

资源相关的参数

以下调整参数都在 mapred-site.xml 这个配置文件当中有

注意: 以下参数是在用户自己的 mr 应用程序中配置就可以生效


  1. mapreduce.map.memory.mb: 一个 Map Task 可使用的资源上限(单位:MB),默认为 1024。如果 Map Task 实际使用的资源量超过该值,则会被强制杀死。

  2. mapreduce.reduce.memory.mb: 一个 Reduce Task 可使用的资源上限(单位:MB),默认为 1024。如果 Reduce Task 实际使用的资源量超过该值,则会被强制杀死。

  3. mapred.child.java.opts 配置每个 map 或者 reduce 使用的内存的大小,默认是 200M

  4. mapreduce.map.cpu.vcores: 每个 Map task 可使用的最多 cpu core 数目, 默认值: 1

  5. mapreduce.reduce.cpu.vcores: 每个 Reduce task 可使用的最多 cpu core 数目, 默认值: 1


shuffle 性能优化的关键参数,应在 yarn 启动之前就配置好


  1. mapreduce.task.io.sort.mb 100 //shuffle 的环形缓冲区大小,默认 100m

  2. mapreduce.map.sort.spill.percent 0.8 //环形缓冲区溢出的阈值,默认 80%


应该在 yarn 启动之前就配置在服务器的配置文件中才能生效

以下配置都在 yarn-site.xml 配置文件当中配置


  1. yarn.scheduler.minimum-allocation-mb 1024 给应用程序 container 分配的最小内存

  2. yarn.scheduler.maximum-allocation-mb 8192 给应用程序 container 分配的最大内存

  3. yarn.scheduler.minimum-allocation-vcores 1 container 最小的虚拟内核的个数

  4. yarn.scheduler.maximum-allocation-vcores 32 container 最大的虚拟内核的个数

  5. yarn.nodemanager.resource.memory-mb 8192 每个 nodemanager 给多少内存


容错相关参数

  • mapreduce.map.maxattempts: 每个 Map Task 最大重试次数,一旦重试参数超过该值,则认为 Map Task 运行失败,默认值:4。

  • mapreduce.reduce.maxattempts: 每个 Reduce Task 最大重试次数,一旦重试参数超过该值,则认为 Map Task 运行失败,默认值:4。

  • mapreduce.job.maxtaskfailures.per.tracker: 当失败的 Map Task 失败比例超过该值为,整个作业则失败,默认值为 0. 如果你的应用程序允许丢弃部分输入数据,则该该值设为一个大于 0 的值,比如 5,表示如果有低于 5%的 Map Task 失败(如果一个 Map Task 重试次数超过 mapreduce.map.maxattempts,则认为这个 Map Task 失败,其对应的输入数据将不会产生任何结果),整个作业仍认为成功。

  • mapreduce.task.timeout: Task 超时时间,默认值为 600000 毫秒,经常需要设置的一个参数,该参数表达的意思为:如果一个 task 在一定时间内没有任何进入,即不会读取新的数据,也没有输出数据,则认为该 task 处于 block 状态,可能是卡住了,也许永远会卡主,为了防止因为用户程序永远 block 住不退出,则强制设置了一个该超时时间(单位毫秒)。如果你的程序对每条输入数据的处理时间过长(比如会访问数据库,通过网络拉取数据等),建议将该参数调大,该参数过小常出现的错误提示是“AttemptID:attempt_14267829456721_123456_m_000224_0 Timed out after 300 secsContainer killed by the ApplicationMaster.”。

发布于: 20 小时前阅读数: 5
用户头像

还未添加个人签名 2021.03.07 加入

还未添加个人简介

评论

发布
暂无评论
MapReduce的参数优化