mt副省级城市人气榜

该博客展示了一段Python代码,实现了美团数据的爬虫功能。代码通过requests库发送请求,使用lxml解析网页,将不同城市、不同品类的美团商家信息,如ID、名称、周销量等,存储到CSV文件中,还设置了随机时间间隔避免被反爬。
# -*- coding:utf-8 -*-
# 仅需修改这个地方https://jn.lianjia.com/ershoufang/pg{}rs/   将jn换成你所在城市的拼写首字母小写
import requests
from lxml import etree
import time
import random
import csv
import requests
import json


class LianjiaSpider(object):
    def __init__(self):
        self.url = "https://mobilenext-web.meituan.com/api/newSalesBoard/getSaleBoardDetail?cityId={}&boardType=8&districtId=0&cateId={}&offset=0&limit=50"

        self.headers = {
            "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/14.0.835.163 Safari/535.1"}

    def get_page(self, url,i,j):
        print(url)
        res = requests.get(url=url, headers=self.headers)
        res.encoding = "utf-8"
        html = res.text
      #  if(html == '{"totalSize":0,"saleBoardPoiList":[],"boardDigest":null}'):
    #        html ={"totalSize":50,"saleBoardPoiList":[{"id":0,"name":"","weekSaleCount":"周销量 0","score":0,"avgPrice":0,"cateName":"","areaName":"","distance":"","rank":0,"frontImg":"https://img.meituan.net/msmerchant/","oneSentence":"","saleBoardPoiGroup":null,"saleBoardPoiCoupon":{"icon":"https://p0.meituan.net/travelcube/","content":""},"saleBoardPoiPay":null,"branchList":null}],"boardDigest":null}



       # print(i)
        # print(html)

        #  results_temp = html.replace('{"totalSize":50,"saleBoardDealList":', "").replace("}}]}", "")
        # results = results_temp + "}}]"
        #  print(results)

        self.parse_page(html,i,j)

    # print(html)
    # print(i)
    def parse_page(self, html,i,j):
        print(i)

        results = html[35:-20]
       # print(len(results))
        print(results)
      #  print(results.find("["))
        if (results.find("[") != 0):
            prefix = "["
            results =  prefix + results
            print(results)
            print(len(results))


        for list in json.loads(results):
            #print(list)
            id = list["id"]
            #print(id)
            name = list["name"]
            #print(name)
            weekSaleCount = list["weekSaleCount"]
            score = list["score"]
            avgPrice = list["avgPrice"]
            cateName = list["cateName"]
            areaName = list["areaName"]
            distance = list["distance"]
            rank = list["rank"]
            frontImg = list["frontImg"]
            oneSentence = list["oneSentence"]


            if (i == 20):  cityId = "广州"
            if (i == 57):  cityId = "武汉"
            if (i == 105):  cityId = "哈尔滨"
            if (i == 66):  cityId = "沈阳"
            if (i == 59):  cityId = "成都"
            if (i == 55):  cityId = "南京"
            if (i == 42):  cityId = "西安"
            if (i == 116):  cityId = "长春"
            if (i == 96):  cityId = "济南"
            if (i == 50):  cityId = "杭州"


            if (j == 1):
                catId = "火锅"
            elif (j == 2):
                catId = "自助餐"
            elif (j == 3):
                catId = "烧烤龙虾"
            elif (j == 4):
                catId = "地方菜"
            elif (j == 5):
                catId = "异国料理"
            elif (j == 6):
                catId = "小吃快餐"
            elif (j == 7):
                catId = "甜点饮品"
            elif (j == 8):
                catId = "蛋糕"

            with open('meituan.csv', 'a', newline='', encoding='utf-8')as f:
                write = csv.writer(f)
                write.writerow(
                    [ cityId,catId,id,name, weekSaleCount, score, avgPrice, cateName, areaName, distance, rank, frontImg,
                     oneSentence])



    def main(self):
        #20广州、香港118,165白山,170鹤岗
        cityId_lists = [20,57,105,66,59,55,42,116,96,50]
        for i in cityId_lists:  # 第二个实例

          #  print(i)
            for j in range(1, 9):
           #     print(j)
                time.sleep(random.randint(3, 5))
                url = self.url.format(i,j)
            #  print(url)
                self.get_page(url,i,j)
        # print(j)


if __name__ == '__main__':
    start = time.time()
    spider = LianjiaSpider()
    spider.main()
    end = time.time()
    print("执行时间:%.2f" % (end - start))
MATLAB代码实现了一个基于多种智能优化算法优化RBF神经网络的回归预测模型,其核心是通过智能优化算法自动寻找最优的RBF扩展参数(spread),以提升预测精度。 1.主要功能 多算法优化RBF网络:使用多种智能优化算法优化RBF神经网络的核心参数spread。 回归预测:对输入特征进行回归预测,适用于连续值输出问题。 性能对比:对比不同优化算法在训练集和测试集上的预测性能,绘制适应度曲线、预测对比图、误差指标柱状图等。 2.算法步骤 数据准备:导入数据,随机打乱,划分训练集和测试集(默认7:3)。 数据归一化:使用mapminmax将输入和输出归一化到[0,1]区间。 标准RBF建模:使用固定spread=100建立基准RBF模型。 智能优化循环: 调用优化算法(从指定文件夹中读取算法文件)优化spread参数。 使用优化后的spread重新训练RBF网络。 评估预测结果,保存性能指标。 结果可视化: 绘制适应度曲线、训练集/测试集预测对比图。 绘制误差指标(MAE、RMSE、MAPE、MBE)柱状图。 十种智能优化算法分别是: GWO:灰狼算法 HBA:蜜獾算法 IAO:改进天鹰优化算法,改进①:Tent混沌映射种群初始化,改进②:自适应权重 MFO:飞蛾扑火算法 MPA:海洋捕食者算法 NGO:北方苍鹰算法 OOA:鱼鹰优化算法 RTH:红尾鹰算法 WOA:鲸鱼算法 ZOA:斑马算法
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值