python中输出编码问题,pyspark、spark.show、

写了一个python脚本,发现在执行时报了一个错:
File “xh_spark/xh_result_check.py”, line 87, in
a.show(1000, False)
File “/opt/huawei/apps/browser/fi-client/FusionInsight_Services_ClientConfig_master/Spark2x/spark/python/pyspark/sql/dataframe.py”, line 382, in show
print(self._jdf.showString(n, int(truncate), vertical))
UnicodeEncodeError: ‘ascii’ codec can’t encode characters in position 1702-1705: ordinal not in range(128)

问题现象:执行脚本会报错,但在spak-shell中不会报错,

解决办法:
import sys
import codecs
sys.stdout = codecs.getwriter(‘utf8’)(sys.stdout)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值