python-爬取网易云音乐(歌名-歌手-链接)

绕过请求头方法一、 

绕过请求头检查:
import requests
import re
from fake_useragent import UserAgent 

url='https://music.163.com/'

headers={
    'user-agent':UserAgent().random
   } 
print(headers)
req=requests.get(url=url,headers=headers)
code=req.status_code
print(code)

绕过请求头 方法二、

import requests
import re
import fake_useragent

ua=fake_useragent.UserAgent()
url='https://music.163.com/'

headers={
    'user-agent':ua.random
}
print(headers)
req=requests.get(url=url,headers=headers)
code=req.status_code
print(code)

import requests
import fake_useragent
import re
"""
1.确定网址
2.搭建关系 发送请求 接受响应
3.筛选数据
4.保存本地
"""
url = "https://music.163.com/discover/toplist?id=3778678"
ua = fake_useragent.UserAgent()
header = {
    'user-agent': ua.random
}
response = requests.get(url=url, headers=header)
r = response.text
# print(r)
response.close()
# 包含歌曲和歌曲链接的一段字符串
all = ''.join(re.findall('<ul class="f-hide">(.*?)</ul>', r))
# 从 all 里提取歌名
name = re.findall('<a href=".*?">(.*?)</a>', all)
# 从 all 里提取歌曲地址
song_url = re.findall('<a href="(.*?)">.*?</a>', all)
# 从页面全部源代码中提取歌手的信息
singer = re.findall(r'"artists":\[{"id":.*?,"name":"(.*?)",', r)
# 打印
for i in range(len(name)):
    print(name[i], '\t', singer[i], '\t','https://music.163.com/#/'+song_url[i])

需要添加放到 excle中,放到docs中打印输出 

Python合法网页爬虫工具项目分享 内容概览: 这个分享包涵了我开发Python爬虫工具项目,主要用于合法爬取某些网页信息。以下是主要内容: 源代码:包括Python代码相关脚本。这些代码展示了如何使用Python进行网页抓取、解析数据提取。 项目文件:除了代码,我还分享了整个项目的文件,包括设计稿、图标、图片等资源。这些资源对于理解项目背景设计思路至关重要。 文档与操作手册:为了方便他人理解使用我的作品,我编写了详细的操作手册使用说明,同时提供了一份Markdown格式的文档,概述了项目的主要功能特点。 学习笔记:在项目开发过程中,我记录了大量的学习笔记心得体会。这些笔记不仅有助于理解项目的开发过程,还能为学习Python爬虫技术提供宝贵的参考资料。 适用人群: 这份项目合集适用于所有对Python爬虫开发感兴趣的人,无论你是学生、初学者还是有一定经验的开发者。无论你是想学习新的技术,还是想了解一个完整的项目开发流程,这份资料都将为你提供极大的帮助。 使用建议: 按部就班地学习:建议从基础的Python爬虫开发开始,逐步深入到实际应用中。通过实践,逐步掌握Python爬虫开发的各项技能。 参考项目文件笔记:项目文件笔记提供了丰富的背景信息开发经验。在学习的过程中,不妨参考这些资料,以帮助你更好地理解学习。 动手实践:Python爬虫开发是一门实践性很强的技能。通过实际操作,你可以更好地掌握Python爬虫开发的各项技能,并提高自己的实践能力。Python合法网页爬虫工具项目分享 内容概览: 这个分享包涵了我开发Python爬虫工具项目,主要用于合法爬取某些网页信息。以下是主要内容: 源代码:包括Python代码相关脚本。这些代码展示了如何使用Python进行网页抓取、解析数据提取。 项目文件:除了代码,我还分享了整个项目的文件,包括设计稿、图标、图片等资源。这些资源对于理解项目背景设计思路至关重要。 文档与操作手册:为了方便他人理解使用我的作品,我编写了详细的操作手册使用说明,同时提供了一份Markdown格式的文档,概述了项目的主要功能特点。 学习笔记:在项目开发过程中,我记录了大量的学习笔记心得体会。这些笔记不仅有助于理解项目的开发过程,还能为学习Python爬虫技术提供宝贵的参考资料。 适用人群: 这份项目合集适用于所有对Python爬虫开发感兴趣的人,无论你是学生、初学者还是有一定经验的开发者。无论你是想学习新的技术,还是想了解一个完整的项目开发流程,这份资料都将为你提供极大的帮助。 使用建议: 按部就班地学习:建议从基础的Python爬虫开发开始,逐步深入到实际应用中。通过实践,逐步掌握Python爬虫开发的各项技能。 参考项目文件笔记:项目文件笔记提供了丰富的背景信息开发经验。在学习的过程中,不妨参考这些资料,以帮助你更好地理解学习。 动手实践:Python爬虫开发是一门实践性很强的技能。通过实际操作,你可以更好地掌握Python爬虫开发的各项技能,并提高自己的实践能力。Python合法网页爬虫工具项目分享 内容概览: 这个分享包涵了我开发Python爬虫工具项目,主要用于合法爬取某些网页信息。以下是主要内容: 源代码:包括Python代码相关脚本。这些代码展示了如何使用Python进行网页抓取、解析数据提取。 项目文件:除了代码,我还分享了整个项目的文件,包括设计稿、图标、图片等资源。这些资源对于理解项目背景设计思路至关重要。 文档与操作手册:为了方便他人理解使用我的作品,我编写了详细的操作手册使用说明,同时提供了一份Markdown格式的文档,概述了项目的主要功能特点。 学习笔记:在项目开发过程中,我记录了大量的学习笔记心得体会。这些笔记不仅有助于理解项目的开发过程,还能为学习Python爬虫技术提供宝贵的参考资料。 适用人群: 这份项目合集适用于所有对Python爬虫开发感兴趣的人,无论你是学生、初学者还是有一定经验的开发者。无论你是想学习新的技术,还是想了解一个完整的项目开发流程,这份资料都将为你提供极大的帮助。 使用建议: 按部就班地学习:建议从基础的Python爬虫开发开始,逐步深入到实际应用中。通过实践,逐步掌握Python爬虫开发的各项技能。 参考项目文件笔记:项目文件笔记提供了丰富的背景信息开发经验。在学习的过程中,不妨参考这些资料,以帮助你更好地理解学习。 动手实践:Python爬虫开发是一门实践性很强的技能。通过实际操作,你可以更好地掌握Python爬虫开发的各项技能,并提高自己的实践能力。Python合法网页爬虫工具项目分享 内容概览: 这个分享包涵了我开发Python爬虫工
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

斜躺青年

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值