爬虫_for_python

本文详细介绍了Python爬虫技术的基础知识,包括requests库的安装与使用方法,如GET、POST等请求方式,以及如何解析网页内容。同时,还介绍了如何利用正则表达式和XPath进行数据提取。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

爬虫_for_python


  1. requests安装

    pip install requests
    
  2. requests使用

    requests.get()
    requests.post()
    requests.head()
    requests.delete() 
    

    例子

    import requests
    url='http://www.baidu.com'
    html=requests.get(url)
    print html.text
  3. python正则模块使用

    findall(pattern,str,re.S)
    search(pattern,str,re.S)
    sub(pattern,str,replace) 
    

    例子

    import re
    urls=re.findall('<a href=(.*?)>',html.text,re.S)
    for each in urls:
        print each
    print re.search('<a href=(.*?)>',html.text,re.S)
    for i in range(10):
        print re.sub('pn=\d','pn=%d'%i,pages)
  4. xpath语法

    //根节点
    /下一层路径
    [@xx=xx]特定的标签
    /text()以文本返回
    /@para返回参数
    string(.)当前层的所有内容作为一个字符串输出
    start-with(str)所有已这个str开头的标签
    

    例子

    form lxml import etree
    selector=etree.HTML(html.text)
    content=selector.XPath('//div[start-with(@id,"test")]/text()')
    for each  in content:
        print each
    selector=etree.HTML(html.text)
    tmp=selector.XPath('//div[@id="class"]')[0]
    info=tmp.XPath('string(.)')
    content2=info.replace('\n','')
    print content2
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值