
pymysql
执笔写回憶
人生苦短,才学Python!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
scrapy获取起点完本书籍信息存入表格和MYSQL数据库,并用ImagePipeline下载封面图
1、创建Scrapy项目scrapy startproject qidian2.进入项目目录,使用命令genspider创建Spiderscrapy genspider wanben qidian.com3、定义要抓取的数据(处理items.py文件)import scrapyclass QidianItem(scrapy.Item): # define the fields for your item here like: # 书名 book_name原创 2020-09-16 15:04:35 · 301 阅读 · 0 评论 -
利用scrapy_redis中间件增加代理简单爬取新片场前20页视频数据,并存入mysql数据库
1、创建Scrapy项目scrapy startprojectt XPC_REDIS2.进入项目目录,使用命令genspider创建Spider(注意后面允许爬取的域要增加)scrapy genspider xpc_redis xinpianchang.com3、定义要抓取的数据(处理items.py文件)# -*- coding: utf-8 -*-import scrapyclass XpcRedisItem(scrapy.Item): # 视频id v原创 2020-07-30 17:47:11 · 419 阅读 · 0 评论 -
利用scrapy简单爬取新片场前20页视频数据,并存入mysql数据库
1、创建Scrapy项目scrapy startproject XPC2.进入项目目录,使用命令genspider创建Spiderscrapy genspider xpc xinpianchang.com openapi-vtom.vmovier.com3、定义要抓取的数据(处理items.py文件)# -*- coding: utf-8 -*-import scrapyclass XpcItem(scrapy.Item): # 视频id v_id = sc原创 2020-07-29 10:10:20 · 869 阅读 · 0 评论 -
采用bs4和xpath两种方法抓取国外图书网站关于书的信息,保存到MongoDB、Redis、MySQL数据库
# 抓取http://www.allitebooks.org/page/1/ 作者、书名、封面图链接import requestsimport jsonfrom lxml import etreefrom bs4 import BeautifulSoupclass AllBooks(object): def __init__(self): self.base_url = "http://www.allitebooks.org/page/{}" self..原创 2020-07-08 10:21:41 · 433 阅读 · 0 评论 -
python3安装pymysql连接mysql数据库
一、python3安装mysqlpip install pymysql二、连接数据库操作import pymysqldb=pymysql.connect(“localhost”,”root”,”123456”,”数据库名)# 创建游标对象cursor = db.cursor()# 执行sql语句cursor.execute(“select version()”)# 获取返回结果...原创 2018-08-14 09:58:04 · 540 阅读 · 0 评论 -
python3和Redis数据库以及mysql数据库实现注册、登录
# 输入用户名、密码# 密码加密# 判断redis中是否记录了用户名,如果有则成功(redis只会记录一条name数据)# 如果redis中没有用户名,则到mysql中查询# 从mysql中查询成功后,将用户名记录到redis中#!/usr/bin/env python# coding=utf-8# 业务过程如下:# 输入用户名、密码# 密码加密# 判断redis中是否记...原创 2018-09-07 17:06:16 · 799 阅读 · 0 评论