这里写目录标题
cookie
获取17k小说网书架中的内容
登录 -> 获得cookie
带着cookie请求书架的url -> 获得书架上的内容
使用session进行请求 -> session认为这是一连串的操作,在此过程中cookie不会丢失
import requests
session = requests.session()
data ={
"loginName":"13219308276",
"password":"xcsrs0711"
}
url = "https://passport.17k.com/ck/user/login"
session.post(url,data = data)
resp = session.get("https://user.17k.com/ck/author/shelf?page=1&appKey=2406394919")
resp.close()
print(resp.json())
防盗链
在页面直接使用查看页面源代码无法得到视频的下载链接,通过F12的抓包工具可以得到。
下载梨视频中指定的视频
import requests
#获取主页面
url1 = "https://www.pearvideo.com/video_1739622"
ID = url1.split("_")[1]
#通过chrome工具获取视频的reqId、resultCode、videoInfo、systemTime等信息
url2 = "https://www.pearvideo.com/videoStatus.jsp?contId=1739622&mrd=0.7694541227589282"#F12 XHR中的访问链接
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.69 '
'Safari/537.36 Edg/95.0.1020.53',
#防盗链,返回去是否是上一个页面
'Referer': url1
}
resp = requests.get(url2,headers=headers)
resp.close()
a = resp.json()#为一个字典
systemTime = a['systemTime']
srcUrl = a["videoInfo"]['videos']['srcUrl']
#获取视频的访问链接
url3 = srcUrl.replace(systemTime,f"cont-{ID}")
#下载视频
resp2 = requests.get(url3)
with open("a.mp4", mode="wb") as f:
f.write(resp2.content)
resp2.close()
代理IP
import requests
proxies={
#IP :端口
"https":"14.215.212.37:9168"
}
resp = requests.get("http://www.baidu.com",proxies = proxies)
resp.encoding = "utf-8"
print(resp.text)
resp.close()