使用Python写的第一个网络爬虫程序

本文介紹了使用Python編寫網絡爬蟲的過程,包括使用urllib2打開網頁,利用正則表達式抓取數據,並將結果保存到Excel文件中。通過該實例,讀者可以了解Python爬蟲的基本操作。

今天尝试使用python写一个网络爬虫代码,主要是想訪问某个站点,从中选取感兴趣的信息,并将信息依照一定的格式保存早Excel中。


此代码中主要使用到了python的以下几个功能,因为对python不熟悉,把代码也粘贴在以下。


1, 使用url打开站点网页

import urllib2

data = urllib2.urlopen(string_full_link).read().decode('utf8')

print data

2,使用正則表達式匹配

import re

#一般的英文匹配
reg = """a href=\S* target='_blank' title=\S*"""
dicList = re.compile(reg).findall(data)
print dicList

#中文的正则匹配,须要使用中文相应的unicode码
reg=u"\u5730\u5740\S*"      #“地址”相应的 unicode code
addrList = re.compile(reg).findall(sub_data)
print addrList

3,写数据到excel文件

import xlrd
import xlwt

        file = xlwt.Workbook()
        table = file.add_sheet('hk', cell_overwrite_ok=True)
        print index, name, addr, tel
        table.write(index, 0, name)
        table.write(index, 1, addr)
        table.write(index, 2, tel)
        
        file.save("""D:\\test.xls""")


可以按照以下步骤使用Python生成一个网页爬虫程序: 1. 安装Python。可以从Python官方网站(https://www.python.org/downloads/)下载安装包,然后按照提示进行安装。 2. 安装需要的库。使用Python进行网页爬虫需要使用第三方库,例如Beautiful Soup和Requests。可以使用pip命令来安装这些库,例如在命令行中输入以下命令来安装Beautiful Soup和Requests: ```python pip install beautifulsoup4 pip install requests ``` 3. 编写Python代码。可以使用Python编写一个简单的网页爬虫程序,例如以下代码: ```python import requests from bs4 import BeautifulSoup url = 'https://www.example.com' response = requests.get(url) soup = BeautifulSoup(response.content, 'html.parser') print(soup.title.string) ``` 这个程序会获取https://www.example.com网站的HTML内容,并使用Beautiful Soup库解析HTML,然后输出网页的标题。 4. 运行Python程序。保存上述代码为.py文件,然后在命令行中运行该程序。例如,在命令行中输入以下命令来运行上述程序: ```python python mycrawler.py ``` 5. 分析网页内容。使用Beautiful Soup库可以很方便地分析网页内容,例如获取网页中的链接、图片等等。 以上就是使用Python生成一个网页爬虫程序的步骤。需要注意的是,网页爬虫有可能会违反网站的使用条款,因此在使用时需要谨慎,不要过度频繁地访问同一网站,以避免被封禁IP地址。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值