分享两种爬虫方式:
1、老师教学版
import requests
url = “https://item.jd.com/100006386682.html”
try:
r = requests.get(url)
r.raise_for_status()
r.encoding = r.apparent_encoding
print(r.text[:1000])
except:
print("爬取失败“)
2、野生探索版
import requests
html = requests.get(“https://item.jd.com/100006386682.html”)
print(html.text[:1000])
总结,结果一模一样,我更喜欢第2种,更简单哦,Python就得越简单越好,不过毕竟简单,如果写大型项目,不知道会不会bug更多。
本文分享了两种Python爬虫实现方式,一种为教学版,另一种为简化版。两者均使用requests库获取网页内容,并打印出部分内容进行验证。尽管代码略有不同,但实现了相同的功能。
1181

被折叠的 条评论
为什么被折叠?



