python爬取有道翻译出错 {‘errorcode’:50}

本文介绍了一种使用Python的urllib库爬取有道翻译API的方法,并解决了爬虫过程中遇到的一个特定URL格式问题。文章还探讨了部分请求参数的重要性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在用urllib对有道翻译进行爬取时,出现了错误。


import urllib.request

import urllib.parse
import json


content = input("Enter the words needs translated:")
url = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=ugc"
data = {}
data['i'] = content
data['from'] = 'AUTO'
data['to']='AUTO'
data['smartresult']='dict'
data['client']='fanyideskweb'
data['salt']='1513663501217'
data['sign']='6a516734349a812792c07491f639609e'
data['doctype'] = 'json'
data['version'] = '2.1'
data['keyfrom']='fanyi.web'
data['action']='FY_BY_REALTIME'
data['typoResult']='false'
data = urllib.parse.urlencode(data).encode('utf-8')
response = urllib.request.urlopen(url,data)
html = response.read().decode('utf-8')
target = json.loads(html)

print("result: %s" % (target['translateResult'][0][0]['tgt']))


将在审查元素中获得的url中translate后面的_o去掉,错误就消失了,可以正常爬取。不知道为什么


刚刚又试了一下,data除了doctype键和i键不能去掉,其余的即使删除了也能正常运行翻译。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值