hadoop streaming python 处理 lzo 文件遇到的问题

本文记录了使用Hadoop Streaming和Python处理LZO文件时遇到的问题,如Windows与Linux文件格式差异导致的错误。解决方案是通过dos2unix转换文件格式。在mapper.py脚本中需要注意异常处理,确保脏数据不会导致任务失败。提交作业脚本的设置也十分关键,要忽略LZO文件中的行号以避免影响输入数据。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一个小需求,不想写java的mapreduce的程序,想用streaming + python 处理一下就行了,遇到一些问题,做个笔记。

以后遇到这样的场景,可以放心使用了。

我是在windows 下的 pyCharm 编写的mapper 和 reducer ,直接上传到linux服务器,发现根本运行不了,老是报:

./maper.py file or directory not find

而且找不到原因,后来发现是windows和linux文件格式差异造成的。

也算是个教训吧。

python shell 脚本如果在windows上编写,到linux上运行,需要转换一下格式: dos2unix + 文件名


看一下python脚本:

mapper.py

#!/usr/bin/python
#coding:utf8

import json
import sys
import re

wrapper = ["fqa","fqq","gtt","zxb","zxa"]
for line in sys.stdin:
        try:
                line = line.decode("utf8")
                str = re.split("\\s+&
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值