创建文件夹
1.创建文件夹"file"。
2.进入file文件夹,创建两个文本文件file1.txt和file2.txt,使file1.txt内容为"Hello World",而file2.txt的内容为"Hello Hadoop"。
3.在HDFS上创建输入文件夹in
4.上传本地file中文件到集群的in目录下
在集群上运行WordCount程序
5.以in作为输入目录,out目录作为输出目录。
已经编译好的WordCount的Jar在"/usr/hadoop"下面,就是"hadoop-examples-*.jar",所以在下面执行命令
时记得把路径写全了,不然会提示找不到该Jar包。
查看结果
6.查看HDFS上output目录内容,从上图中知道生成了三个文件,我们的结果在"part-r-00000"中。
7.查看结果输出文件内容
相关推荐
包含配置hadoop过程中遇到的一些问题的解决办法和成功运行wordcount实例的步骤
关于Hadoop的WordCount实例代码,能够实现实现单词计数。
Hadoop 用mapreduce实现Wordcount实例,绝对能用
ubuntu上面运行hadoop自带的wordcount实例
这是一个wordcount的一个简单实例jar包,仅仅用来做测试。 map类:org.apache.hadoop.wordcount.WordCountMapReduce$WordCountMapper reduce类 org.apache.hadoop.wordcount.WordCountMapReduce$WordCountReducer
Hadoop环境搭建及wordcount实例运行.pdf
主要介绍了hadoop的wordcount实例代码,分享了相关代码示例,小编觉得还是挺不错的,具有一定借鉴价值,需要的朋友可以参考下
1. 资源包括了eclipse Oxygen版本的hadoop插件,包括winutils 2. 文档详细介绍了windows 下的hadoop版本的配置 3. 实例程序可以跑通,有详细截图
hadoop入门程序wordcount的源代码,java编写。可供参考
Hadoop环境搭建与WordCount实例浅析.pdf
内含三个文档,Cygwin+Eclipse搭建Hadoop开发环境、cygwin安装及基本操作方法总结、Hadoop环境搭建及wordcount实例运行,要做这方面工作的人,可以进行参考
。。。
代码是基于windows系统下搭建eclipse+hadoop2.8.3开发实例。使用eclipse直接导入代码使用的前提是,需要在本地配置要hadoop2.8.3,本代码亲测可用,能够详细地统计出dataNode下面的file3.txt文件中单词的个数。
hadoop scala spark 例子项目,运行了单机wordcount
使用python实现MapReduce的wordcount实例
hadoop学习---运行第一个hadoop实例。hadoop环境搭建好后,运行第wordcount示例
一个自己写的Hadoop MapReduce实例源码,网上看到不少网友在学习MapReduce编程,但是除了wordcount范例外实例比较少,故上传自己的一个。包含完整实例源码,编译配置文件,测试数据,可执行jar文件,执行脚本及操作...
Hadoop 2.x 版本中 jar 不再集中在一个 hadoop-core*.jar 中,而是分成多个 jar,如使用 Hadoop 2.6.0 运行 WordCount 实例至少需三个 jar。