python爬取携程景点信息 ,mysql插库(自己瞎测试的,如有问题请告知)

本文介绍了使用Python爬虫从携程网站抓取北京景点信息,并将其存储到MySQL数据库的过程。详细步骤包括确定爬取地址、编写爬虫代码以及展示结果。参考链接提供了一个实现示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1 爬地址

     https://you.ctrip.com/sight/Beijing1.html

2.直接干代码

# -*- coding: gbk -*-
import urllib.request
import re
import pymysql
config = {
          'host':'127.0.0.1',
          'port':3306,#MySQL默认端口
          'user':'root',#mysql默认用户名
          'password':'root',
          'db':'test',#数据库
          'charset':'utf8',
          }
course={}
# 打开数据库连接
headers = ("User-Agent",
           "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.26 Safari/537.36 Core/1.63.6726.400 QQBrowser/10.2.2265.400")
opener = urllib.request.build_opener()
opener.addheaders = [headers]
urllib.request.install_opener(opener)
for j in range(0, 336):
    # 主页URL
    baseUr
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值