本文共 6604 字,大约阅读时间需要 22 分钟。
字符串比较开头,选择性忽略
isEmpty()
**利用Reduce阶段Key的特性
字符串截取,类型转换计算
package 招聘数据清洗;import org.apache.hadoop.io.LongWritable;import org.apache.hadoop.io.NullWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Mapper;import java.io.IOException;public class Map extends Mapper{ Text k = new Text(); @Override protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { /* 前几行数据 positionName,salary,workYear,city,companyShortName,companySize,district,financeStage,industryField,thirdType,resumeProcessDay,resumeProcessRate Senior Data Analyst,15k-30k,3-5年,北京,AppAnnie,150-500人,东城区,D轮及以上,移动互联网,数据分析,1,100 数据分析师,15k-20k*2,3-5年,北京,北京合生活网络科技有限公司,150-500人,朝阳区,不需要融资,消费生活,数据分析,2,61 。。。。。。 数据分析师,14k-25k,1-3年,北京,花生米富,150-500人,朝阳区,B轮,"移动互联网,金融",数据分析,2,100 */ // 1.首先不读取包含有字段名的一列 if (value.toString().startsWith("\uFEFFpositionName")) return; // 2.获取一行数据,拆分 // 3.注意在字段值中含有分隔符的不予以拆分 String[] fields = value.toString().split(",(?=(?:[^\"]*\"[^\"]*\")*[^\"]*$)", -1); // 4.判断是否有空值 --- 去空 if (valid(fields)) { // 5.处理薪资 // 15k-20k*2 if (fields[1].contains("*")) { // 拆分获取最大、最小值 String[] salary = fields[1].split("\\*"); // todo 15k-20k -- 2 System.out.println(salary[1]); String[] salarys = salary[0].split("-"); // todo 15k 20k int max = Integer.parseInt(salarys[1].trim().substring(0, salarys[1].length() - 1)) * Integer.parseInt(salary[1]); int min = Integer.parseInt(salarys[0].trim().substring(0, salarys[0].length() - 1)); fields[1] = (max + min) / 2 + "k"; } else { // 15k-20k // 拆分获取最大、最小值 String[] salary = fields[1].split("-"); int max = Integer.parseInt(salary[1].trim().substring(0, salary[1].length() - 1)); int min = Integer.parseInt(salary[0].trim().substring(0, salary[0].length() - 1)); fields[1] = (max + min) / 2 + "k"; } // 6.获取完整数据 StringBuffer sb = new StringBuffer(); for (int i = 0; i < fields.length; i++) { sb.append(fields[i]).append("\t"); } k.set(sb.toString()); // 6.将完整数据写出 context.write(k, NullWritable.get()); } } // 4.判断是否是空值 boolean valid(String[] fields) { boolean flag = true; for (String item : fields) { if (item.trim().isEmpty()) { flag = false; break; } } return flag; }}
package 招聘数据清洗;import org.apache.hadoop.io.NullWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Reducer;import java.io.IOException;public class Reduce extends Reducer{ @Override protected void reduce(Text key, Iterable values, Context context) throws IOException, InterruptedException { // 直接写出 context.write(key,NullWritable.get()); }}
package 招聘数据清洗;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io.NullWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Job;import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;public class Driver { public static void main(String[] args) { try { // 获取job Configuration conf = new Configuration(); Job job = Job.getInstance(conf); // 配置 job.setMapperClass(Map.class); job.setReducerClass(Reduce.class); job.setJarByClass(Driver.class); job.setMapOutputKeyClass(Text.class); job.setMapOutputValueClass(NullWritable.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(NullWritable.class); // 配置文件输入输出路径 Path in = new Path("G:\\Projects\\IdeaProject-C\\MapReduce\\src\\main\\java\\招聘数据清洗\\data\\zhaopin.txt"); Path out = new Path("G:\\Projects\\IdeaProject-C\\MapReduce\\src\\main\\java\\招聘数据清洗\\output"); FileInputFormat.setInputPaths(job,in); FileOutputFormat.setOutputPath(job,out); FileSystem fs = FileSystem.get(conf); if (fs.exists(out)){ fs.delete(out,true); } // 提交job System.exit(job.waitForCompletion(true) ? 0:1); } catch (Exception e){ e.printStackTrace(); } }}
结果如下图所示,最终输出记录96条。原始数据100条(1条字段,2条包含空值记录,1条重复记录
)。
//1.首先不读取包含有字段名的一列if (value.toString().startsWith("\uFEFFpositionName")) return;
这个地方,存在一个文档编码格式的问题,查了一下叫BOM。BOM(byte-order mark),即字节顺序标记,它是插入到以UTF-8、UTF16或UTF-32编码Unicode文件开头的特殊标记,用来识别Unicode文件的编码类型。对于UTF-8来说,BOM并不是必须的,因为BOM是用来标记多字节编码文件的编码类型和字节顺序(big-endian或little- endian)。而UTF-8中,每个字符的编码有多少位是通过第一个字节来表述的,而且没有big-endian和little-endian的区分。
UTF-8 不需要 BOM,尽管 Unicode 标准允许在 UTF-8 中使用 BOM。所以不含 BOM 的 UTF-8 才是标准形式,在 UTF-8 文件中放置 BOM 主要是微软的习惯(顺便提一下:把带有 BOM 的小端序 UTF-16 称作「Unicode」而又不详细说明,这也是微软的习惯)。
BOM是为 UTF-16 和 UTF-32 准备的,用于标记字节序(byte order)。微软在 UTF-8 中使用 BOM 是因为这样可以把 UTF-8 和 ASCII 等编码明确区分开,否则用Excel打开CSV文件有可能是乱码的。但这样的文件在 Windows 之外的操作系统里会带来问题。「UTF-8」和「带 BOM 的 UTF-8」的区别就是有没有 BOM。即文件开头有没有 U+FEFF。
/* 前几行数据 positionName,salary,workYear,city,companyShortName,companySize,district,financeStage,industryField,thirdType,resumeProcessDay,resumeProcessRate Senior Data Analyst,15k-30k,3-5年,北京,AppAnnie,150-500人,东城区,D轮及以上,移动互联网,数据分析,1,100 数据分析师,15k-20k*2,3-5年,北京,北京合生活网络科技有限公司,150-500人,朝阳区,不需要融资,消费生活,数据分析,2,61 。。。。。。 数据分析师,14k-25k,1-3年,北京,花生米富,150-500人,朝阳区,B轮,"移动互联网,金融",数据分析,2,100 *///1.首先不读取包含有字段名的一列if (value.toString().startsWith("\uFEFFpositionName")) return;// 2.获取一行数据,拆分// 3.注意在字段值中含有分隔符的不予以拆分String[] fields = value.toString().split(",(?=(?:[^\"]*\"[^\"]*\")*[^\"]*$)", -1);
数据分析师,14k-25k,1-3年,北京,花生米富,150-500人,朝阳区,B轮,"移动互联网,金融",数据分析,2,100
","
进行,但是留心,本数据集中的industryField
字段值使用 " "
括起来的,并且中间的分隔符也是 " ,"
,这样一来,如果分割的时候直接写 " ,"
,后面就会出现fields
的length
大小问题。所以此处需要使用正则表达式进行截取的规范。 转载地址:http://lceq.baihongyu.com/