python之爬虫爬有道词典

本文介绍了一种使用Python爬取有道词典英文单词翻译的方法。通过访问有道词典网站,利用urllib2获取网页内容,并使用BeautifulSoup解析网页,最终提取出所需翻译内容。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

首先我们先去有道词典网站

找到这个网址的格式

 

然后

右键网页源代码

 

找到翻译所在的部分 并记录下来

 

现在浏览器部分的任务就完成了

 

我们现在开始敲代码

 

首先是url 就是有道的网址和我们要查找的单词

url = 'http://dict.youdao.com/w/eng/%s' % word

 

然后我们用urllib2去抓取网页的包

page = urllib2.urlopen(url).read()

 

 之后我们用BeautifulSoup去解析page

data = BeautifulSoup(page, 'lxml')

 

最后用我们记下的标签去找相应的内容就行了

data.findAll('div', attrs={'class': 'trans-container'})[0].findNext('ul').text

 

整体代码:

 1 import urllib2
 2 from bs4 import BeautifulSoup
 3 
 4 def query(word):
 5     url = 'http://dict.youdao.com/w/eng/%s' % word
 6     page = urllib2.urlopen(url).read()
 7     data = BeautifulSoup(page, 'lxml')
 8     return data.findAll('div', attrs={'class': 'trans-container'})[0].findNext('ul').text
 9 
10 if __name__ == '__main__':
11     while True:
12         print(query(raw_input()))

 

运行结果:

 

哇你看是不是学个爬虫很简单

转载于:https://www.cnblogs.com/general10/p/7490279.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值