首页技术文章正文

InputFormat接口的定义代码如何设置?

更新时间:2020-11-04 来源:黑马程序员 浏览量:

   

  InputFormat主要用于描述输入数据的格式,它提供以下两个功能:

  数据切分:按照某个策略将输入数据切分成若干个分片(split),以便确定MapTask个数以及对应的分片(split)。

  ·为Mapper提供输入数据:给定某个分片(split),将其解析成一个一个的key/value键值对。

  · Hadoop自带了一个 InputFormat接口,该接口的定义代码如下所示:

public abstract class InputFormat<K, V> {

     public abstract List<InputSplit> getSplits(JobContext context

               ) throws IOException, InterruptedException;

     public abstract RecordReader<K,V>createRecordReader(InputSplit split,

                     TaskAttemptContext context

               ) throws IOException, InterruptedException;

  }

  从上述代码可以看出,InputFormat接口定义了getSplits()和createRecordReader()两个方法,其中,getSplits()方法负责将文件切分为多个分片(split),createRecordReader()方法负责创建RecordReader对象,用来从分片中读取数据。下面,我们主要对getSplits()方法进行介绍。 getSplits()方法主要实现了逻辑切片机制。其中,切片的大小splitSize是由3个值确定的,即minSize、maxSize和blockSize。 minSize:splitSize的最小值,由参数mapred.min.split.size确定,可在mapred-site.xml中进行配置,默认为1MB。 maxSize:splitSize的最大值,由参数mapreduce.jobtracker.split.metainfo.maxsize确定,可在mapred-site.xml中进行设置,默认值为10MB。 blockSize:HDFS中文件存储块的大小,由参数dfs.block,size确定,可在hdf-site.xml中进行修改,默认为128MB。

    猜你喜欢:

 MapReduce中Maper组件用法介绍【黑马程序员】

 Spark的集群安装部署


分享到:
在线咨询 我要报名
和我们在线交谈!