摘要:精简的命令一次性展示出文本内容将文本中空格使用回车键替换串联排序所有指定文件并将结果写到标准输出。
精简的Shell
cat /home/sev7e0/access.log | tr -s " " " " | sort | uniq -c | sort -r | awk "{print $2, $1}" #cat 命令一次性展示出文本内容 #tr -s " " " " 将文本中空格使用回车键替换 #sort 串联排序所有指定文件并将结果写到标准输出。 #uniq -c 从输入文件或者标准输入中筛选相邻的匹配行并写入到输出文件或标准输出,-c 在每行前加上表示相应行目出现次数的前缀编号 #sort | uniq -c 同时使用用来统计出现的次数 #sort -r 把结果逆序排列 #awk "{print $2,$1}" 将结果输出,文本在前,计数在后Scala
import scala.io.Source._ val file = fromFile("/home/hadoopadmin/test.txt") val map = file.getLines().toList.flatMap(_.split(" ")).map((_,1)).groupBy(_._1) val value = map.mapValues(_.size) value.foreach(println(_))反人类的MapReduce
//mapreduce方式 public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); // conf.set("fs.defaultFS", "hdfs://spark01:9000"); // conf.set("yarn.resourcemanager.hostname", "spark01"); Path out = new Path(args[1]); FileSystem fs = FileSystem.get(conf); //判断输出路径是否存在,当路径存在时mapreduce会报错 if (fs.exists(out)) { fs.delete(out, true); System.out.println("ouput is exit will delete"); } // 创建任务 Job job = Job.getInstance(conf, "wordcountDemo"); // 设置job的主类 job.setJarByClass(WordCount.class); // 主类 // 设置作业的输入路径 FileInputFormat.setInputPaths(job, new Path(args[0])); //设置map的相关参数 job.setMapperClass(WordCountMapper.class); job.setMapOutputKeyClass(Text.class); job.setMapOutputValueClass(LongWritable.class); //设置reduce相关参数 job.setReducerClass(WordCountReduce.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(LongWritable.class); //设置作业的输出路径 FileOutputFormat.setOutputPath(job, out); job.setNumReduceTasks(2); System.exit(job.waitForCompletion(true) ? 0 : 1); }好用的spark
//spark版wordcount sc.textFile("/home/sev7e0/access.log").flatMap(_.split(" ")).map((_, 1)).reduceByKey(_+_).foreach(println(_))
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/71768.html
摘要:要说在中常见的函数是哪一个,当然是。是一个实现了接口的抽象类,其中是数据处理方法,强制子类必须实现。以上为学习一天的总结,有错误欢迎指正。相同的是这个方法处理的都是中的一个元素。 在阅读本文前,可先看一下官方的WordCount代码, 对Apache Beam有大概的了解。 要说在Apache Beam中常见的函数是哪一个,当然是apply()。常见的写法如下: [Final Outp...
摘要:批处理的程序分析博客从到学习介绍从到学习上搭建环境并构建运行简单程序入门从到学习配置文件详解从到学习介绍从到学习如何自定义从到学习介绍从到学习如何自定义从到学习转换从到学习介绍中的从到学习中的几种详解从到学习读取数据写入到从到学习项 批处理的 WordCount 程序分析: https://t.zsxq.com/YJ2Zrfi 博客 1、Flink 从0到1学习 —— Apache ...
阅读 2589·2021-09-28 09:36
阅读 2198·2021-09-07 09:58
阅读 1456·2019-08-26 13:53
阅读 1248·2019-08-23 17:53
阅读 2992·2019-08-23 15:34
阅读 1820·2019-08-23 15:34
阅读 2827·2019-08-23 12:04
阅读 3681·2019-08-23 10:56