python 爬虫豆瓣top250

python 爬虫豆瓣top250

#! 循环访问网站 
import requests
from bs4 import BeautifulSoup     #从bs4这个库中导入BeautifulSoup
from distutils.filelist import findall 

a=0
headers = {'User-Agent' : 'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'}
for i in range(10):
	url="https://movie.douban.com/top250?start="+str(i*25)
	#print(url)
	r=requests.get(url, headers=headers)
	#print(r);
	url_content=r.text

	# 使用BeautifulSoup截取
	soup = BeautifulSoup(url_content,"html.parser")
	for bq in soup.find_all('div',class_='item'):
		#print(bq)
		name=bq.find('span',class_='title').get_text()
		jiesao=bq.find('p',class_='').get_text()
		# print(jiesao)
		#取图片
		img_src=bq.find('img').get('src')
		print(img_src)
		a+=1;
		# print(a)
		print("开始下载图片....")
		fileurl="dy/"+name+".png"
		img_a = requests.get(img_src)
		print(img_a)
		with open(fileurl, 'wb') as f:
			f.write(img_a.content)
要爬取豆瓣Top250电影信息,你可以使用Python编写爬虫程序。你可以使用BeautifulSoup库来解析网页内容,并使用requests库来发送HTTP请求获取网页内容。以下是一个步骤示例: 1. 首先,安装所需的库。你可以在终端中使用以下命令安装requests库: pip install requests 2. 然后,安装BeautifulSoup库。你可以在终端中使用以下命令安装BeautifulSoup库: pip install beautifulsoup4 3. 导入所需的库,例如: import requests from bs4 import BeautifulSoup 4. 创建一个函数来发送HTTP请求并获取网页内容: def get_page(url): response = requests.get(url) return response.text 5. 创建一个函数来解析网页内容并提取需要的信息: def parse_page(html): soup = BeautifulSoup(html, 'html.parser') # 在这里编写解析代码,提取豆瓣Top250电影信息 6. 创建一个循环来遍历所有页面,并调用上述函数进行爬取和解析: for i in range(0, 250, 25): url = f'https://movie.douban.com/top250?start={i}' html = get_page(url) parse_page(html) 请注意,以上只是一个简单的示例,你需要根据具体的需求和网页结构进行适当的修改。你可以参考和中提供的教程和文档,以获取更详细的信息和用法。 :Python爬虫基础5天速成(2021全新合集)Python入门 数据可视化 https://www.bilibili.com/video/BV12E411A7ZQ :Beautiful Soup 4.4.0 文档 https://beautifulsoup***://movie.douban.com/top250/?start=0 https://movie.douban.com/top250?start=25 https://movie.douban.com/top250?start=50 …<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [Python爬虫——爬取豆瓣Top250](https://blog.csdn.net/weixin_45672809/article/details/113553042)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [python爬虫实例-运用requests抓取豆瓣电影TOP250(详解)](https://blog.csdn.net/sha1_mi/article/details/121781191)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值