99偷拍视频精品区一区二,口述久久久久久久久久久久,国产精品夫妇激情啪发布,成人永久免费网站在线观看,国产精品高清免费在线,青青草在线观看视频观看,久久久久久国产一区,天天婷婷久久18禁,日韩动漫av在线播放直播

二、MapReduce基本編程規范

[TOC]

創新互聯公司堅持“要么做到,要么別承諾”的工作理念,服務領域包括:成都做網站、網站建設、企業官網、英文網站、手機端網站、網站推廣等服務,滿足客戶于互聯網時代的永勝網站設計、移動媒體設計的需求,幫助企業找到有效的互聯網解決方案。努力成為您成熟可靠的網絡建設合作伙伴!

一、MapReduce編程基本組成

編寫MapReduce的程序有至少三個必不可少的部分:mapper,reducer,driver??蛇x的有 partitioner,combiner
而且mapper的輸入輸出、reducer的輸入輸出都是key value型的,所以要求我們在編寫mapper和reducer時,必須實現明確這4個鍵值對中的8種數據類型,而且必須還是hadoop的可序列化類型。同時還需要注意的是,map的輸出其實就是reduce的輸入,所以包括的數據類型是一樣的。

1、map階段

編寫基本流程
1)自定義map類,需要繼承 Mapper這個類
2)繼承Mapper 的時候,需要指定輸入和輸出的鍵值對中的類型
3)必須重寫繼承自父類的map() 方法
4)上面重寫的map() 方法是每個map task對每一個輸入到mapper中的鍵值對都會調用處理一次。

基本編寫實例如下:

/*
指定Mapper<KEYIN, VALUEIN, KEYOUT, VALUEOUT> 這4個類型分別為:
LongWritable, Text, Text, IntWritable,相當于普通類型:
long,string,string,int
*/
public class TestMapper extends Mapper<LongWritable, Text, Text, IntWritable> {
    public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
        這里是map方法 處理邏輯
    }
}

2、reduce階段

基本編寫流程
1)自定義reduce類,需要繼承 Reducer這個類
2)繼承Reducer的時候,需要指定輸入和輸出的鍵值對中的類型
3)必須重寫繼承自父類的reduce() 方法
4)上面重寫的reduce() 方法是每個reduer task對每一個輸入到reducer中的鍵值對都會調用處理一次。

基本編寫實例如下:

/*
指定Reducer<KEYIN, VALUEIN, KEYOUT, VALUEOUT> 這4個類型分別為:
Text, IntWritable, Text, IntWritable,相當于普通類型:
string,int,string,int
*/
public class TestReducer extends Reducer<Text, IntWritable, Text, IntWritable> {
    protected void reduce(Text key,
                          Iterable<IntWritable> values,
                          Context context) throws IOException, InterruptedException {
        這里是reduce方法 處理邏輯
    }
}

3、driver階段

這個部分是用于配置job對象的各種必須配置信息,配置完成后,將job提交給yarn執行
具體配置啥下面直接上例子看好了。主要起到調度map和reduce任務執行的作用

4、partitioner階段

這個階段主要是對map階段的輸出進行分區,而map的分區數直接決定reduce task的數量(一般來說是一對一),編寫流程如下:
1)自定義分區類,繼承 Partitioner<key, value>
2)繼承Partitioner的時候,處理的輸入的鍵值對類型
3)必須重寫繼承自父類的getPartition() 方法
4)上面重寫的getPartition() () 方法是每個maptask對每一個輸入的鍵值對都會調用處理一次。
5)根據分區規則,返回0~n,表示分區格式為0~n

編寫案例如下:

public class WordCountPartitioner extends Partitioner<Text, IntWritable> {
    @Override
    public int getPartition(Text text, IntWritable intWritable, int i) {
        判斷條件1:
        return 0;
        判斷條件2:
        return 1;
        .......
        return n;
    }
}

5、combiner

combiner不是一個獨立的階段,它其實是包含在map階段中的。map本身輸出的鍵值對中,每個鍵值對的value都是1,就算是一樣的key,也是獨立一個鍵值對。如果重復的鍵值對越多,那么將map輸出傳遞到reduce的過程中,就會占用很多帶寬資源。優化的方法就是每個map輸出時,先在當前map task下進行局部合并匯總,減少重復可以的出現。即

<king,1> <>king,1>  這種一樣的key的,就會合并成 <king,2>
這樣就會減少傳輸的數據量

所以其實由此可以知道,其實combiner的操作和reduce的操作是一樣的,只不過一個是局部,一個是全局。簡單的做法就是,直接將reducer作為combiner類傳入job,如:

job.setCombinerClass(WordCountReducer.class);

我們可以看看這個方法的源碼:

public void setCombinerClass(Class<? extends Reducer> cls) throws IllegalStateException {
        this.ensureState(Job.JobState.DEFINE);
        //看到沒,那個  Reducer.class
        this.conf.setClass("mapreduce.job.combine.class", cls, Reducer.class);
    }

可以清楚看到設置combine class時,可以看到多態的類型設置就是 Reducer 類型的,從這里也可以更加確定 combiner 的操作和 reducer的就是一樣的。

二、wordcount編程實例

下面開始用wordcount作為例子編寫一個完整的MapReduce程序

1、mapper

public class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable> {

    //setup 和 clean 方法不是必須的
    @Override
    protected void setup(Context context) throws IOException, InterruptedException {
        //最先執行
        //System.out.println("this is setup");
    }

    @Override
    protected void cleanup(Context context) throws IOException, InterruptedException {
        //執行完map之后執行
        //System.out.println("this is cleanup");
    }

    //這里創建一個臨時對象,用于保存中間值
    Text k = new Text();
    IntWritable v = new IntWritable();

    /**
     *
     *
     * @param key
     * @param value
     * @param context  用于連接map和reduce上下文,通過這個對象傳遞map的結果給reduce
     * @throws IOException
     * @throws InterruptedException
     */
    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
        //System.out.println("開始map=====================");

        //1.value是讀取到的一行字符串,要將其轉換為java中的string進行處理,即反序列化
        String line = value.toString();

        //2.切分數據
        String[] words = line.split(" ");

        //3.輸出map結構, <單詞,個數>的形式,寫入的時候需將普通類型轉為序列化類型
        /**
         * 兩種寫法:
         * 1) context.write(new Text(word), new IntWritable(1));
         *     缺點:每次都會創建兩個對象,最后會造成創建了很多臨時對象
         *
         * 2)Text k = new Text();
         *    IntWritable v = new IntWritable();
         *
         *    for {
         *       k.set(word);
         *       v.set(1);
         *       context.write(k, v);
         *    }
         *
         *    這種方法好處就是,對象只創建了一次,后續只是通過修改對象內部的值的方式傳遞,無需重復創建多個對象
         */
        for (String word:words) {
            //轉換普通類型為可序列化類型
            k.set(word);
            v.set(1);
            //寫入到上下文對象中
            context.write(k, v);
        }
    }
}

2、reducer

public class WordCountReducer extends Reducer<Text, IntWritable, Text, IntWritable> {

    /**
     * 這里的 Iterable<IntWritable> values 之所以是一個可迭代的對象,
     * 是因為從map傳遞過來的數據經過合并了,如:
     * (HDFS,1),(HDFS,1)合并成 (HDFS,[1,1]) 這樣的形式,所以value可以通過迭代方式獲取其中的值
     *
     */
    IntWritable counts = new IntWritable();

    @Override
    protected void reduce(Text key,
                          Iterable<IntWritable> values,
                          Context context) throws IOException, InterruptedException {
        //1.初始化次數
        int count = 0;

        //2.匯總同一個key中的個數
        for (IntWritable value: values) {
            count += value.get();
        }

        //3.輸出reduce
        counts.set(count);
        context.write(key, counts);
    }
}

3、driver

public class WordCountDriver {
    public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
        //這里只是方便在ide下直接運行,如果是在命令行下直接輸入輸入和輸出文件路徑即可
        args = new String[]{"G:\\test2\\", "G:\\testmap6\\"};

        //1.獲取配置對象
        Configuration conf = new Configuration();

        //2.獲取job對象
        Job job = Job.getInstance(conf);

        //3.分別給job指定driver,map,reducer的類
        job.setJarByClass(WordCountDriver.class);
        job.setMapperClass(WordCountMapper.class);
        job.setReducerClass(WordCountReducer.class);

        //4.分別指定map和reduce階段輸出的類型
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(IntWritable.class);

        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);

         //這里可以設置分區類,需要額外編寫分區實現類
//        job.setPartitionerClass(WordCountPartitioner.class);
//        job.setNumReduceTasks(2);

        //設置預合并類
        //job.setCombinerClass(WordCountReducer.class);

        //設置inputFormat類,大量小文件優化,不設置默認使用 TextInputFormat
        job.setInputFormatClass(CombineTextInputFormat.class);
        CombineTextInputFormat.setMaxInputSplitSize(job,3* 1024 * 1024);
        CombineTextInputFormat.setMinInputSplitSize(job, 2 * 1024 * 1024);

        //5.數據輸入來源以及結果的輸出位置
        // 輸入的時候會根據數據源的情況自動map切片,形成切片信息(或者叫切片方案)
        FileInputFormat.setInputPaths(job, new Path(args[0]));
        FileOutputFormat.setOutputPath(job, new Path(args[1]));

        //以上就是將一個job的配置信息配置完成后,下面就提交job,hadoop將跟就job的配置執行job

        //6.提交job任務,這個方法相當于 job.submit()之后,然后等待執行完成
        //任務配置信息是提交至yarn的  MRappmanager
        job.waitForCompletion(true);

    }
}

當前標題:二、MapReduce基本編程規范
網站網址:http://www.yijiale78.com/article12/ghdddc.html

成都網站建設公司_創新互聯,為您提供自適應網站、域名注冊搜索引擎優化、營銷型網站建設定制開發、服務器托管

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

h5響應式網站建設