原理还没搞懂哈哈哈,懂了回来继续更
# 请求网页
import requests
# user-agent:身份
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36 Edge/18.18362"
}
respond = requests.get("https://www.vmgirls.com/13874.html", headers=headers)
html = respond.text
# 解析网页
import re
urls = re.findall('<a href="(.*?)" alt=".*?" title=".*?">', html)
print(urls)
# 保存图片
for url in urls:
file_name = url.split("/")[-1]
respond = requests.get(url, headers=headers)
with open(file_name, "wb") as f:
f.write(respond.content)
本文介绍使用Python和requests库进行网页请求的基本方法,通过设置User-Agent来伪装浏览器,获取指定网页源代码。利用正则表达式解析网页,抓取图片链接,并逐一下载保存到本地。适合初学者了解爬虫抓取图片的全过程。
2077

被折叠的 条评论
为什么被折叠?



