第一次做的爬虫

#将抓取评论数方法整理成一函数
import re
import json
import requests
commentURL='http://comment5.news.sina.com.cn/page/info?version=1&format=js&\
channel=gn&newsid=comos-{}&group=&compress=0&ie=utf-8&oe=utf-8&page=1&\
page_size=20'

def getCommentCount(newsurl):
    m=re.search('doc-i(.*).shtml',newsurl)
    newsid=m.group(1)
    comments=requests.get(commentURL.format(newsid))
    jd=json.loads(comments.text.strip('var data='))
    return jd['result']['count']['total']
#将抓取内文信息方法整理成一函数
from bs4 import BeautifulSoup
from datetime import datetime
def getNewsDetail(newsurl):
    result={}
    res=requests.get(newsurl)
    res.encoding='utf-8'
    soup=BeautifulSoup(res.text,'html.parser')
    result['title']=soup.select('#artibodyTitle')[0].text
    result['newssource']=soup.select('.time-source span a')[0].text
    timesource=soup.select('.time-source')[0].contents[0].strip()
    result['dt']=datetime.strptime(timesource,'%Y年%m月%d日%H:%M')
    result['article']=' '.join([p.text.strip() for p in soup.select('#artibody p')[:-1]])
    result['editor']=soup.select('.article-editor')[0].text.strip('责任编辑:')
    result['comments']=getCommentCount(newsurl)
    return result
#建立剖析分页清单链接函数
def parseListLinks(url):
    newsdetails=[]
    res=requests.get(url)
    jd=json.loads(res.text.lstrip(' newsloadercallback(').rstrip(');'))
    for ent in jd['result']['data']:
        newsdetails.append(getNewsDetail(ent['url']))
    return newsdetails
#批次抓取每页新闻内文(使用for循环产生多页链接)
url='http://api.roll.news.sina.com.cn/zt_list?channel=news&cat_1=gnxw&cat_2==gdxw1||=gatxw||=zs-pl||=mtjj&level==1||=2&show_ext=1&show_all=1&show_num=22&tag=1&format=json&page={}'
news_total=[]
for i in range(1,3):
    newsurl=url.format(i)
    newsary=parseListLinks(newsurl)
    news_total.extend(newsary)

#使用Pandas整理资料    
import pandas
df=pandas.DataFrame(news_total)
df.head()

#将资料保存至Excel
df.to_excel('news.xlsx')


抓取新浪新闻



### 头歌平台伪装爬虫的实现方法 在头歌平台上进行伪装爬虫的操作,主要目的是为了模拟真实用户的浏览器行为,从而绕过目标网站的基础反爬机制。以下是具体的实现方式: #### 1. 使用 `Faker` 库生成随机请求头 通过安装并使用 Python 的 `Faker` 库,可以轻松生成随机的 `User-Agent` 和其他请求头信息,使爬虫看起来像是由不同的浏览器发起的请求。 ```bash pip install faker ``` 随后,在代码中导入 `Faker` 并生成随机的请求头信息: ```python from faker import Faker fake = Faker() headers = { "User-Agent": fake.user_agent(), # 随机生成 User-Agent "Referer": "https://example.com", # 设置 Referer 字段 } print(headers) ``` 此部分实现了动态生成请求头的功能[^2]。 #### 2. 手动设置常见的请求头字段 除了借助第三方库外,还可以手动配置一些常用的请求头字段来增强伪装效果。例如,`Accept-Language` 表示接受的语言环境;`Connection` 常设为 `keep-alive` 来维持连接状态等。 ```python custom_headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/98.0.4758.102 Safari/537.36", "Accept-Language": "zh-CN,zh;q=0.9,en-US;q=0.8,en;q=0.7", "Connection": "keep-alive" } ``` 这种静态配置适用于特定场景下的需求[^3]。 #### 3. 结合实际案例完成伪装操作 以下是一个完整的例子,展示如何利用上述技术手段访问某个网页,并提取其中 `<title>` 标签内的内容作为验证结果。 ```python import urllib.request import re from faker import Faker # 初始化faker对象 fake = Faker() url = "http://www.example.com/" headers = {"User-Agent": fake.user_agent()} # 动态生成UA req = urllib.request.Request(url=url, headers=headers) response = urllib.request.urlopen(req).read().decode('utf-8') pattern = r'<title>(.*?)</title>' data = re.findall(pattern, response) if data: print(f"页面标题为: {data[0]}") else: print("未找到<title>标签中的内容.") ``` 以上脚本展示了从构建请求到解析返回数据的过程。 --- ### 注意事项 尽管伪装能够有效规避简单的反爬策略,但对于复杂的防护体系(如 IP 封禁、验证码校验),仍需采取更多高级措施才能成功抓取所需资源。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值