Python的简易爬虫

本文介绍了一个简单的Python爬虫实现过程,通过requests库抓取百度搜索结果页面,并提取URL信息。适合初学者理解爬虫的基本原理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

上代码:

# coding: UTF-8
import requests
//使用百度搜索
url = "http://www.baidu.com/s?wd="
wd = "joyful"
url = url + wd
#获取链接到的页面(html,就跟你右键浏览器查看源代码差不多)
r = requests.get(url)
#转字符串
string=r.text
def FIND(string):
    #定义两个变量:分别表示开始的字符串,结束的字符串,用于提取
    begin = "http"
    end = ".com"
    #使用find找到开始和结束截取的位置
    start = string.find(begin)
    stop = string.find(end)
    sub_str = string[start:stop + len(end)]
    print(sub_str)
    count = string.count(begin)
    for x in range(0,count):
        start = string.find(begin,stop)
        stop = string.find(end,start)
        sub_str = string[start:stop + len(end)]
        print(sub_str)
FIND(string)

可以说爬虫的基础就是这样了,更厉害的爬虫也是这种思路,在爬取到的页面上采集信息,就是爬虫。
如有错误请大佬指教,万分感谢

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值