Python-爬取网页very easy!

博客介绍了网页爬取相关内容。以Chrome浏览器为例,说明了获取User - Agent请求头的步骤,即进入网站查看network,点击name下文件,在requests headers中找到User - Agent并复制到headers里。还提到可转换成json的网页较好爬,以及后续有写入文件操作。
import requests
url = 'https://www.youkuaiyun.com/?spm=1001.2014.3001.4476'
headers = {'User-Agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.77 Safari/537.36'}
def get():
    try:
        g = requests.get(url)
        g.encoding = 'utf-8'
        data = g.text
        with open("csdn.txt","a") as file:
            file.write(data)
            print("Done!")
            file.close()
    except:
        print("Oh,Little error!")
get()

先附上代码,这个User-Agent可以在Chrome或火狐浏览器上查看。我已Chrome为例,首先,来到你想爬取的网站,右键选择查看。选择network。

进去后你会看到一些进度条,如果没有,刷新一下。

然后点一下name下的文件,我的文件是Sunyoho?spm开头的,注意,点一下就好,不要双击。

进去后会出现很多选项,往下滑,滑到requests headers,就是这个请求头,如果要获取到网站信息,有些网站是不让你爬的,所以要把这个爬取请求伪装成是你的浏览器访问网站。

然后往下翻,找到这个,User-Agent。Mozilla开头的,OK!直接把你的请求头复制下来,选中,然后Mac用command+c拷贝,win用ctrl+c,复制到headers里去。

像这种可以转换成json的网页比较好爬,下面就是写入文件的一些操作,不用多说。

 

使用Python实现批量爬取网页文字,可借助一些常见的爬虫库,以下是具体步骤及示例。 ### 基本网页解读 在爬取网页文字前,需对网页结构有基本了解,明确目标文字所在位置。 ### 入门爬虫库的基本介绍与使用 #### 1. requests库 用于发送HTTP请求,获取网页的HTML内容。 ```python import requests # 发送请求获取网页内容 url = 'https://example.com' # 替换为实际网页URL response = requests.get(url) if response.status_code == 200: html_content = response.text else: print(f"请求失败,状态码:{response.status_code}") ``` #### 2. BeautifulSoup库 用于解析HTML内容,提取所需的文字信息。 ```python from bs4 import BeautifulSoup # 创建BeautifulSoup对象 soup = BeautifulSoup(html_content, 'html.parser') # 提取网页中的所有文字 text = soup.get_text() print(text) ``` ### 批量爬取下载小说示例 若要批量爬取网页文字,如批量下载小说,可将多个网页的URL存储在列表中,然后依次进行爬取。 ```python import requests from bs4 import BeautifulSoup # 存储多个网页的URL urls = [ 'https://example.com/chapter1', 'https://example.com/chapter2', # 可添加更多URL ] # 批量爬取并保存到txt文件 with open('novel.txt', 'w', encoding='utf-8') as file: for url in urls: response = requests.get(url) if response.status_code == 200: html_content = response.text soup = BeautifulSoup(html_content, 'html.parser') text = soup.get_text() file.write(text) else: print(f"请求 {url} 失败,状态码:{response.status_code}") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值