当前位置: 首页 > news >正文

网站怎么做排名搜索引擎优化的作用是什么

网站怎么做排名,搜索引擎优化的作用是什么,公司查询网,加盟网站建设案例欣赏MapReduce入门案例-分词统计 文章目录 MapReduce入门案例-分词统计1.xml依赖2.编写MapReduce处理逻辑3.上传统计文件到HDFS3.配置MapReduce作业并测试4.执行结果 1.xml依赖 <dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-commo…

MapReduce入门案例-分词统计

文章目录

    • MapReduce入门案例-分词统计
        • 1.xml依赖
        • 2.编写MapReduce处理逻辑
        • 3.上传统计文件到HDFS
        • 3.配置MapReduce作业并测试
        • 4.执行结果

1.xml依赖
     <dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-common</artifactId><version>3.1.3</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-hdfs</artifactId><version>3.1.3</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>3.1.3</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-mapreduce-client-core</artifactId><version>3.1.3</version></dependency>
2.编写MapReduce处理逻辑
/*** MapReduce示例-单词统计*/
public class WordCount {/*** Mapper:将输入数据拆分为键值对(Key-Value)。*/public static class TokenizerMapper extends Mapper<LongWritable, Text, Text, IntWritable> {private final static IntWritable one = new IntWritable(1); // 定义一个常量表示单词计数为1private final Text word = new Text(); // 定义用于存储单词的Text对象public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {// 将每行文本拆分成单词StringTokenizer itr = new StringTokenizer(value.toString(), "\n");while (itr.hasMoreTokens()) {// 按空格分割字符串String[] str = itr.nextToken().split(" ");if(ObjectUtils.isNotEmpty(str)){Map<String, Long> listMap = Lists.newArrayList(str).stream().collect(Collectors.groupingBy(e -> e, Collectors.counting()));listMap.forEach((k,v)->{//单词word.set(k);// 第二个元素是单词出现的次数one.set(v.intValue());try {context.write(word, one); // 输出键值对(单词,1)} catch (IOException | InterruptedException e) {throw new RuntimeException(e);}});}}}}/*** Reducer:对相同Key的Value进行聚合处理。* 对相同键(即相同的单词)的值进行汇总,计算出每个单词出现的总次数。*/public static class IntSumReducer extends Reducer<Text, IntWritable, Text, IntWritable> {private final IntWritable result = new IntWritable(); // 定义用于存储汇总结果的IntWritable对象public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {int sum = 0; // 初始化计数器for (IntWritable val : values) { // 遍历所有值sum += val.get(); // 累加单词出现的次数}result.set(sum); // 将汇总结果设置为输出值context.write(key, result); // 输出最终的键值对(单词,总次数)}}}
3.上传统计文件到HDFS

文件内容

在这里插入图片描述

文件上传

    /*** 文件上传*/@Testpublic void test04() throws Exception {File file = new File("D:\\IdeaProjects\\springboot\\springboot-hadoop\\src\\main\\resources\\templates\\demo.txt");MultipartFile cMultiFile = new MockMultipartFile("file", file.getName(), null, Files.newInputStream(file.toPath()));hdfsService.uploadFile(cMultiFile,"/demo.txt");}
3.配置MapReduce作业并测试
   /*** 分词统计测试*/@Testpublic void test06() throws Exception {Configuration conf = new Configuration(); // 创建配置对象conf.set("fs.defaultFS", "hdfs://hadoop001:9000");conf.set("dfs.permissions.enabled", "false"); // 可选:关闭权限检查FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:9000"),conf, "moshangshang");Job job = Job.getInstance(conf, "word count"); // 创建MapReduce作业实例job.setJarByClass(WordCount.class); // 设置作业的主类job.setMapperClass(WordCount.TokenizerMapper.class); // 设置Mapper类job.setReducerClass(WordCount.IntSumReducer.class); // 设置Reducer类job.setOutputKeyClass(Text.class); // 设置输出键的类型job.setOutputValueClass(IntWritable.class); // 设置输出值的类型FileInputFormat.addInputPath(job, new Path(hdfsProperties.getUploadPath()+"/demo.txt")); // 设置输入路径(hdfs路径)String resultPath = hdfsProperties.getUploadPath()+System.currentTimeMillis();FileOutputFormat.setOutputPath(job, new Path(resultPath)); // 设置输出路径boolean flag = job.waitForCompletion(true);// 等待作业完成并返回结果状态if(flag){System.out.println("执行成功");//查询hdfs结果listFileContent2(fileSystem, new Path(resultPath));//删除执行的统计文件//hdfsService.deleteFile(resultPath);}}/*** 查看hdfs数据(本地执行,就类似本地cmd命令行并没有直接连接远程hadoop)* hdfs dfs -cat /test/1749717998628/**/private static void listFileContent(FileSystem fs, Path filePath) throws IOException {System.out.println("hdfs://hadoop001:9000"+filePath.toString()+"/*");// 使用 hdfs dfs -cat 命令来查看文件内容ProcessBuilder processBuilder = new ProcessBuilder("cmd", "/c", "hadoop", "fs", "-cat", filePath +"/*");processBuilder.redirectErrorStream(true);Process process = processBuilder.start();InputStream inputStream = process.getInputStream();Scanner scanner = new Scanner(inputStream);while (scanner.hasNextLine()) {System.out.println("执行后的结果:"+scanner.nextLine());}scanner.close();}/*** 使用hadoop集群执行查看路径下所有文件内容(类似cat)*/private static void listFileContent2(FileSystem fs, Path filePath) throws IOException {try {FileStatus[] files = fs.listStatus(filePath);for (FileStatus file : files) {if (file.isDirectory()){continue;}try (FSDataInputStream inputStream = fs.open(file.getPath())) {BufferedReader reader = new BufferedReader(new InputStreamReader(inputStream));String line;if(reader.read()== -1){continue;}System.out.println("=== 文件: " + filePath.getName() + " ===");while ((line = reader.readLine()) != null) {System.out.println(line);}reader.close();}}} finally {if (fs != null) fs.close();}}
4.执行结果

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

http://www.yidumall.com/news/84821.html

相关文章:

  • 正能量网站大全进一步优化
  • 互联网网站开发服务合同范本今日国际新闻最新消息
  • 网络编程有哪些企业seo顾问
  • 临安区规划建设局网站河北seo网络优化师
  • 建网站要什么工做人员专门发广告的app
  • 有个专门做gif的网站百度知道首页登录
  • 代理平台软件seo培训学院官网
  • 做网站需要的电脑配置seo推广网络
  • 中国人做网站卖美国人seo综合查询系统
  • 网站建设的关键词河南自助建站seo公司
  • 佛山网站建设网络公司天琥设计培训学校官网
  • 北京网站建设手机app电子商务台湾新闻最新消息今天
  • 做做网站需要多少钱怎么自己制作网页
  • 长春企业网站模板建站免费网页空间到哪申请
  • 做网站时怎么取消鼠标悬停优化防疫政策
  • 网站建设企业 熊掌号近期时事新闻
  • 微信网站建设哪家好梅花seo 快速排名软件
  • 网站建设课程设计报告总结各类资源关键词
  • 会所网站建设推广平台哪儿有怎么做
  • 陕西秦地建设有限公司网站安卓排名优化
  • 小视频的网站怎么做的搜索引擎调词工具哪个好
  • 手机做印章网站百度网页推广怎么做
  • 做导航网站用什么cmsseo外包公司
  • 做商城的网站用什么框架好泉州百度开户
  • 北京商城网站建设费用网络营销的基本特征有哪七个
  • 聊城市东昌府区建设局网站网站搜索工具
  • 营销网站建设818gx在线营销推广
  • 东莞建设网站开发推广营销是什么
  • 承德市兼职网招聘信息seo刷网站
  • 网站公告怎么做google官网