实验3-MapReduce编程初级实践.docx

上传人:聆听****声音 文档编号:565831 上传时间:2023-04-29 格式:DOCX 页数:7 大小:102.54KB
下载 相关 举报
实验3-MapReduce编程初级实践.docx_第1页
第1页 / 共7页
实验3-MapReduce编程初级实践.docx_第2页
第2页 / 共7页
实验3-MapReduce编程初级实践.docx_第3页
第3页 / 共7页
实验3-MapReduce编程初级实践.docx_第4页
第4页 / 共7页
实验3-MapReduce编程初级实践.docx_第5页
第5页 / 共7页
实验3-MapReduce编程初级实践.docx_第6页
第6页 / 共7页
实验3-MapReduce编程初级实践.docx_第7页
第7页 / 共7页
亲,该文档总共7页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

实验3-MapReduce编程初级实践.docx

《实验3-MapReduce编程初级实践.docx》由会员分享,可在线阅读,更多相关《实验3-MapReduce编程初级实践.docx(7页珍藏版)》请在冰点文库上搜索。

实验3-MapReduce编程初级实践.docx

实验3MapReduce编程初级实践

实验3MapReduce编程初级实践

1.实验目的

1.通过实验掌握基本的MapReduce编程方法;

2.掌握用MapReduce解决一些常见的数据处理问题,包括数据去重、数据排序和数据挖掘等。

2.实验平台

已经配置完成的Hadoop伪分布式环境。

3.实验内容和要求

1.编程实现文件合并和去重操作

对于两个输入文件,即文件A和文件B,请编写MapReduce程序,对两个文件进行合并,并剔除其中重复的内容,得到一个新的输出文件C。

下面是输入文件和输出文件的一个样例供参考。

实验最终结果(合并的文件):

代码如下:

packagecom.Merge;

importjava.io.IOException;

importorg.apache.hadoop.conf.Configuration;

importorg.apache.hadoop.fs.Path;

importorg.apache.hadoop.io.Text;

importorg.apache.hadoop.mapreduce.Job;

importorg.apache.hadoop.mapreduce.Mapper;

importorg.apache.hadoop.mapreduce.Reducer;

importorg.apache.hadoop.mapreduce.lib.input.FileInputFormat;

importorg.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

publicclassMerge{

publicstaticclassMapextendsMapper{

privatestaticTexttext=newText();

publicvoidmap(Objectkey,Textvalue,Contextcontext)

throwsIOException,InterruptedException{

text=value;

context.write(text,newText(""));

}

}

publicstaticclassReduceextendsReducer{

publicvoidreduce(Textkey,Iterablevalues,Contextcontext)

throwsIOException,InterruptedException{

context.write(key,newText(""));

}

}

publicstaticvoidmain(String[]args)throwsException{

Configurationconf=newConfiguration();

conf.set("fs.defaultFS","hdfs:

//localhost:

9000");

String[]otherArgs=newString[]{"input","output"};

if(otherArgs.length!

=2){

System.err.println("Usage:

Mergeandduplicateremoval");

System.exit

(2);

}

Jobjob=Job.getInstance(conf,"Mergeandduplicateremoval");

job.setJarByClass(Merge.class);

job.setMapperClass(Map.class);

job.setReducerClass(Reduce.class);

job.setOutputKeyClass(Text.class);

job.setOutputValueClass(Text.class);

FileInputFormat.addInputPath(job,newPath(otherArgs[0]));

FileOutputFormat.setOutputPath(job,newPath(otherArgs[1]));

System.exit(job.waitForCompletion(true)?

0:

1);

}

}

2.编写程序实现对输入文件的排序

现在有多个输入文件,每个文件中的每行内容均为一个整数。

要求读取所有文件中的整数,进行升序排序后,输出到一个新的文件中,输出的数据格式为每行两个整数,第一个数字为第二个整数的排序位次,第二个整数为原待排列的整数。

下面是输入文件和输出文件的一个样例供参考。

实验结果截图:

代码如下:

packagecom.MergeSort;

importjava.io.IOException;

importorg.apache.hadoop.conf.Configuration;

importorg.apache.hadoop.fs.Path;

importorg.apache.hadoop.io.IntWritable;

importorg.apache.hadoop.io.Text;

importorg.apache.hadoop.mapreduce.Job;

importorg.apache.hadoop.mapreduce.Mapper;

importorg.apache.hadoop.mapreduce.Reducer;

importorg.apache.hadoop.mapreduce.lib.input.FileInputFormat;

importorg.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

publicclassMergeSort{

publicstaticclassMapextends

Mapper{

privatestaticIntWritabledata=newIntWritable();

publicvoidmap(Objectkey,Textvalue,Contextcontext)

throwsIOException,InterruptedException{

Stringline=value.toString();

data.set(Integer.parseInt(line));

context.write(data,newIntWritable

(1));

}

}

publicstaticclassReduceextends

Reducer{

privatestaticIntWritablelinenum=newIntWritable

(1);

publicvoidreduce(IntWritablekey,Iterablevalues,

Contextcontext)throwsIOException,InterruptedException{

for(IntWritableval:

values){

context.write(linenum,key);

linenum=newIntWritable(linenum.get()+1);

}

}

}

publicstaticvoidmain(String[]args)throwsException{

Configurationconf=newConfiguration();

conf.set("fs.defaultFS","hdfs:

//localhost:

9000");

String[]otherArgs=newString[]{"input2","output2"};/*直接设置输入参数*/

if(otherArgs.length!

=2){

System.err.println("Usage:

mergesort");

System.exit

(2);

}

Jobjob=Job.getInstance(conf,"mergesort");

job.setJarByClass(MergeSort.class);

job.setMapperClass(Map.class);

job.setReducerClass(Reduce.class);

job.setOutputKeyClass(IntWritable.class);

job.setOutputValueClass(IntWritable.class);

FileInputFormat.addInputPath(job,newPath(otherArgs[0]));

FileOutputFormat.setOutputPath(job,newPath(otherArgs[1]));

System.exit(job.waitForCompletion(true)?

0:

1);

}

}

3.对给定的表格进行信息挖掘

下面给出一个child-parent的表格,要求挖掘其中的父子辈关系,给出祖孙辈关系的表格。

实验最后结果截图如下:

代码如下:

packagecom.join;

importjava.io.IOException;

importjava.util.*;

importorg.apache.hadoop.conf.Configuration;

importorg.apache.hadoop.fs.Path;

importorg.apache.hadoop.io.Text;

importorg.apache.hadoop.mapreduce.Job;

importorg.apache.hadoop.mapreduce.Mapper;

importorg.apache.hadoop.mapreduce.Reducer;

importorg.apache.hadoop.mapreduce.lib.input.FileInputFormat;

importorg.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

publicclassSTjoin{

publicstaticinttime=0;

publicstaticclassMapextendsMapper{

publicvoidmap(Objectkey,Textvalue,Contextcontext)

throwsIOException,InterruptedException{

Stringchild_name=newString();

Stringparent_name=newString();

Stringrelation_type=newString();

Stringline=value.toString();

inti=0;

while(line.charAt(i)!

=''){

i++;

}

String[]values={line.substring(0,i),line.substring(i+1)};

if(values[0].compareTo("child")!

=0){

child_name=values[0];

parent_name=values[1];

relation_type="1";

context.write(newText(values[1]),newText(relation_type+"+"

+child_name+"+"+parent_name));

relation_type="2";

context.write(newText(values[0]),newText(relation_type+"+"

+child_name+"+"+parent_name));

}

}

}

publicstaticclassReduceextendsReducer{

publicvoidreduce(Textkey,Iterablevalues,Contextcontext)

throwsIOException,InterruptedException{

if(time==0){

context.write(newText("grand_child"),newText("grand_parent"));

time++;

}

intgrand_child_num=0;

Stringgrand_child[]=newString[10];

intgrand_parent_num=0;

Stringgrand_parent[]=newString[10];

Iteratorite=values.iterator();

while(ite.hasNext()){

Stringrecord=ite.next().toString();

intlen=record.length();

inti=2;

if(len==0)

continue;

charrelation_type=record.charAt(0);

Stringchild_name=newString();

Stringparent_name=newString();

while(record.charAt(i)!

='+'){

child_name=child_name+record.charAt(i);

i++;

}

i=i+1;

while(i

parent_name=parent_name+record.charAt(i);

i++;

}

if(relation_type=='1'){

grand_child[grand_child_num]=child_name;

grand_child_num++;

}else{

grand_parent[grand_parent_num]=parent_name;

grand_parent_num++;

}

}

if(grand_parent_num!

=0&&grand_child_num!

=0){

for(intm=0;m

for(intn=0;n

context.write(newText(grand_child[m]),newText(

grand_parent[n]));

}

}

}

}

}

publicstaticvoidmain(String[]args)throwsException{

Configurationconf=newConfiguration();

conf.set("fs.defaultFS","hdfs:

//localhost:

9000");

String[]otherArgs=newString[]{"input3","output3"};

if(otherArgs.length!

=2){

System.err.println("Usage:

SingleTableJoin");

System.exit

(2);

}

Jobjob=Job.getInstance(conf,"Singletablejoin");

job.setJarByClass(STjoin.class);

job.setMapperClass(Map.class);

job.setReducerClass(Reduce.class);

job.setOutputKeyClass(Text.class);

job.setOutputValueClass(Text.class);

FileInputFormat.addInputPath(job,newPath(otherArgs[0]));

FileOutputFormat.setOutputPath(job,newPath(otherArgs[1]));

System.exit(job.waitForCompletion(true)?

0:

1);

}

}

4.实验报告

《云计算》实验报告

题目:

MapReduce编程初级实践

姓名

包生友

日期:

2016/12/20

实验环境:

机房的虚拟机上配置好的环境

解决问题的思路:

根据老师给的代码进行操作

实验内容与完成情况:

已完成,与同学商量后仍有部分代码尚未知道其作用所在

出现的问题:

执行之后,出现未找到main函数情况,再次执行会报错,说文件已经存在。

解决方案(列出遇到的问题和解决办法,列出没有解决的问题):

问题:

1.执行之后,出现未找到main函数情况

2.再次执行会报错,说文件已经存在。

解决办法:

删除输出文件即可(程序执行时输出文件不能存在)

5.实验总结

通过本次实验,使我掌握基本的MapReduce编程方法;掌握用MapReduce解决一些常见的数据处理问题,包括数据去重、数据排序和数据挖掘等。

短暂的云计算课程实验到此结束,到我知道对云计算的学习是没有尽头的。

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > IT计算机 > 电脑基础知识

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2