基于python多线程和Scrapy爬取链家网房价成交信息

本文介绍如何使用Python多线程和Scrapy-spider框架爬取链家网的深圳房价成交信息,涵盖爬虫构建、SQLite数据库操作及百度地图API地理坐标获取的全过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


本次教程以深圳市为例,介绍利用python多线程爬取链家网的房价成交信息。其中涉及的知识包括爬虫框架Scrapy-spider、轻量数据库SQLite等。

知识背景

Scrapy- spider 爬虫框架

简单的说,Scrapy爬虫框架会利用异步机制帮助提高网络爬虫的爬取速度。
最重要的,爬虫记载爬取失败的url,进行重复爬取,直到爬取失败的url列表为空时结束爬取,这显然提高数据的爬取质量。

SQLite数据库

SQLite,是一款轻型的数据库,是遵守ACID的关系型数据库管理系统,它占用资源非常的低,操作简单,适合用于存储爬虫结果数据。

python多线程

多线程就像同时执行多个程序,多线程运行有如下优点:

  • 使用线程可以把占据长时间的程序中的任务放到后台去处理。
  • 运行速度更快
  • 在一些等待的任务实现上如用户输入、文件读写和网络收发数据等情况下我们可以释放一些珍贵的资源如内存占用等等。

爬取流程详解

爬取房价信息
封装数据库类,方便多线程操作
class SQLiteWraper(object):
    """
    数据库的一个小封装,更好的处理多线程写入
    """
    def __init__(self,path,command='',*args,**kwargs):  
        self.lock = threading.RLock() #锁  
        self.path = path #数据库连接参数  
        
        if command!='':
            conn=self.get_conn()
            cu=conn.cursor()
            cu.execute(command)
    
    def get_conn(self):  
        conn = sqlite3.connect(self.path)#,check_same_thread=False)  
        conn.text_factory=str
        return conn   
      
    def conn_close(self,conn=None):  
        conn.close()  
    
    def conn_trans(func):  
        def connection(self,*args,**kwargs):  
            self.lock.acquire()  
            conn = self.get_conn()  
            kwargs['conn'] = conn  
            rs = func(self,*args,**kwargs)  
            self.conn_close(conn)  
            self.lock.release()  
            return rs  
        return connection  
    
    @conn_trans    
    def execute(self,command,method_flag=0,conn=None):  
        cu = conn.cursor()
        try:
            if not method_flag:
                cu.execute(command)
            else:
                cu.execute(command[0],command[1])
            conn.commit()
        except sqlite3.IntegrityError as e:
            #print(e)
            return -1
        except Exception as e:
            print(e)
            return -2
        return 0
    
    @conn_trans
    def fetchall(self,command="select name from xiaoqu",conn=None):
        cu=conn.cursor()
        lists=[]
        try:
            cu.execute(command)
            lists=cu.fetchall()
        except Exception as e:
            print(e)
            pass
        return lists
数据库插入操作

利用数组生成数据库插入命令

def gen_xiaoqu_insert_command(info_dict):
    """
    生成小区数据库插入命令
    """
    info_list=[u'小区ID',u'小区名称',u'参考均价',u'大区域',u'小区域',u'建筑年代',u'建筑类型',u'物业费用',u'物业公司',u'开发商',u'楼栋总数',u'房屋总数',u'附近门店']
    t=[]
    for il in info_list:
        if il in info_dict:
            t.append(info_dict[il])
        else:
            t.append('')
    t=tuple(t)
    command=(r"insert into xiaoqu values(?,?,?,?,?,?,?,?,?,?,?,?,?)",t)
    return command
构建爬虫爬取数据
def xiaoqu_spider(db_xq,url_page=u"http://sz.lianjia.com/xiaoqu/pg1rs%E6%98%8C%E5%B9%B3/"):
    """
    爬取页面链接中的小区信息
    """
    try:
        res=requests.get(url_page,headers=hds[random.randint(0,len(hds)-1)])
        plain_text=res.text
        soup = BeautifulSoup(plain_text,"html.parser")
    except (urllib.request.HTTPError, urllib.request.URLError) as e:
        print(e)
        exit(-1)
    except Exception as e:
        print(e)
        exit(-1)
        
    xiaoqu_list=soup.findAll('li',{'class':'clear xiaoquListItem'})
    for xq in xiaoqu_list:
        info_dict={}
        info_dict.update({u'小区ID':xq.get('data-id')})
        info_dict.update({u'小区名称':xq.find('div',{'class':'title'}).get_text()})
        info_dict.update({u'参考均价':xq.find('div',{'class':'totalPrice'}).get_text()})
        info_dict.update({u'大区域':xq.find('a',{'class':'district'}).get_text()})
        info_dict.update({u'小区域':xq.find('a',{'class':'bizcircle'}).get_text()})
        url_detail="https://sz.lianjia.com/xiaoqu/"+xq.get('data-id')+"/"
        info=xiaoqu_spider_detail(url_detail)
        try:
            info_dict.update({u'建筑年代':info[0]})
            info_dict.update({u'建筑类型':info[1]})
            info_dict.update({u'物业费用':info[2]})
            info_dict.update({u'物业公司':info[3]})
            info_dict.update({u'开发商':info[4]})
            info_dict.update({u'楼栋总数':info[5]})
            info_dict.update({u'房屋总数':info[6]})
            info_dict.update({u'附近门店':info[7]})
        except Exception as e:
            print(url_detail)
            print(e)
        command=gen_xiaoqu_insert_command(info_dict)
        db_xq.execute(command,1)
        
def do_xiaoqu_spider(db_xq,region=u"futianqu"):
    """
    爬取大区域中的所有小区信息
    """
    url=u"http://sz.lianjia.com/xiaoqu/"+quote(region_pinyin)+"/"
    try:
        res=requests.get(url,headers=hds[random.randint(0,len(hds)-1)])
        plain_text=res.text
        soup = BeautifulSoup(plain_text,"html.parser")
    except (urllib.request.HTTPError, urllib.request.URLError) as e:
        print(e)
        return
    except Exception as e:
        print(e)
        return
    d=json.loads(soup.find('div',{'class':'page-box house-lst-page-box'}).get('page-data'))
    total_pages=d['totalPage']
    threads=[]
    for i in range(total_pages):
        url_page=u"http://sz.lianjia.com/xiaoqu/"+quote(region_pinyin)+"/"+"pg%s/" % (i+1)
        t=threading.Thread(target=xiaoqu_spider,args=(db_xq,url_page))
        threads.append(t)
    for t in threads:
        t.start()
    for t in threads:
        t.join()
    print(u"爬下了 %s 区全部的小区信息" % region)
基于百度地图获取小区地理坐标

构建函数调用百度地图API,查询poi点位置信息,获取位置标记

def getlocation(name):#调用百度API查询位置
    bdurl='http://api.map.baidu.com/place/v2/search?query='
    output='json'
    ak='yPNB0qKB6sIVVupOWyKnzoxabwsSuK9M'#输入你刚才申请的密匙
    region='深圳'
    tag='房地产'
    uri=bdurl+name+'&tag='+tag+'&region='+region+'&output='+output+'&ak='+ak
    res=requests.get(uri)
    s=json.loads(res.text)['results']
    if s==[]:
        loc={'lng':'NULL','lat':'NULL'}
    else:
        s=json.loads(res.text)['results'][0]
        loc=s.get('location', 'not exist')
        if loc=="not exist":
            loc={'lng':'NULL','lat':'NULL'}
    return(loc)

完整代码

完整代码请参考个人博客-资源下载。

描述:由C#编写的多线程异步抓取页的爬虫控制台程序 功能:目前只能提取接,所用的两个记录文件并不需要很大。页文本、图片、视频html代码暂时不能抓取,请见谅。 但需要注意,页的数目是非常庞大的,如下代码理论上大概可以把整个互联接都抓下来。 但事实上,由于处理器功能络条件(主要是速)限制,一般的用电脑最多能胜任12个线程左右的抓取任务,抓取速度有限。可以抓取,但需要时间耐心。 当然,这个程序把所有接抓下来是可能的,因为接占系统空间并不多,而且有记录文件的帮助,已抓取页的数量可以堆积下去, 甚至可以把所有的互联接都存取下来,当然,最好是分批次。建议设置maxNum为500-1000左右,慢慢累积下去。 另外因为是控制台程序,有时候显示字符过多会系统会暂停显示,这时候只要点击控制台按下回车键就可以了。程序假死的时候,可以按回车键(Enter)试试。 /// 使用本程序,请确保已创建相应的记录文件,出于简化代码的考虑,本程序做的并不健壮,请见谅。 /// 默认的文件创建在E盘根目录“已抓取址.txt”“待抓取址.txt”这两个文本文件中,使用者需要自行创建这两个文件,注意后缀名不要搞错。 这两个文件里面的接基本都是有效接,可以单独处理使用。 本爬虫程序的速度如下: 10线程最快大概500个接每分钟 6-8线程最快大概400-500个接每分钟 2-4线程最快大概200-400个接每分钟 单线程最快大概70-100个接每分钟 之所以用多线程异步抓取完全是出于效率考虑,本程序多线程同步并不能带来速度的提升,只要抓取的页不要太多重复冗余就可以,异步并不意味着错误。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值