新手hadoop崩溃——wordCount上传集群中文结果
��� 3
������ 5
#hadoop、IDEA、xshell、mapreduce 没有一个能放过我!!!
终于还是走到了我怎么查怎么做都改变不了结果的一步
Round 1,使用本地模式 IDEA输入文件悟空.txt(保存格式为UTF-8),输出文件放置D盘ABD文件夹下。得到结果part-r-00000 windows cmd 上显示乱码,上传到hadoop上,结果正常。
Round 2,打jar包,输出结果自动上传至hadoop,本来妄图想着输入文件依然用D盘,但是它找不到,故将悟空.txt上传至hadoop里,输出结果为:


Round 3,文本文件格式是不带BOM的UTF-8,IDEA中setting设置encoding是UTF-8,pom.xml也是UTF-8…

啊啊啊啊啊!
今天也是抓狂的一天!!!
(不过它对于英文内容的结果输出均正常,我再研究研究)
本文记录了作者在使用Hadoop进行WordCount任务时遇到的中文乱码问题及解决过程。从本地模式开始,逐步过渡到集群模式,并探讨了不同文件编码方式的影响。
5411

被折叠的 条评论
为什么被折叠?



