- 博客(32)
- 收藏
- 关注
原创 Spring6-01-入门案例
Spring6的默认JDK版本是17,所以这里选择JDK17,然后next项目名自取,GroupId可改可不改,然后直接Finish即可!
2023-04-06 15:42:48
228
原创 JMM知识总结
JMM(Java内存模型Java Memory Model,简称JMM)本身是一种抽象的概念并不真实存在它仅仅描述的是一组约定或规范,通过这组规范定义了,关键技术点都是围绕多线程的原子性、可见性和有序性展开的。
2023-04-02 18:44:11
236
原创 Java加锁的三种方法总结与案例
结论:一、1和2中的await和wait都需要先加锁再使用,否则报错二、如果先唤醒再加锁 则会造成线程阻塞,无法被唤醒三、park和unpark方法则没有上述限制,不加锁也能使用,顺序颠倒也不会影响线程被唤醒。
2023-04-02 14:43:24
2398
原创 JUC-2-CompletableFuture的引出
CompletableFuture是Future的增强版,可以减少阻塞和轮询,也可以传入回调对象,当异步任务完成或者发生异常时,自动调用回调对象的回调方法!!CompletableFuture中的回调函数whenComplete和exceptionally/*** 有返回值test3();} /*** CompletableFuture的一般用法//使用自定义的线程池 ExecutorService pool = Executors . newFixedThreadPool(3);
2023-04-01 14:44:48
83
原创 Druid工具类的封装v2.0
1.0版本的工具类,不能确保一个线程中的所有方法获取的连接都是同一个,2.0版本基于这一缺点做了改进,工具类改进代码如下。
2023-03-31 20:11:50
147
原创 SQL语句分类即及Statement.executeQuery使用
sql语句分类:1、DDL:容器(库、表)创建、修改、删除2、DML:插入、修改、删除3、DQL:查询4、DCL:权限控制5、TPL:事务控制语言executeQuery方法返回结果:参数:非DQL sql返回:受影响行数参数:DQL sql返回:结果集对象 ResultSet。
2023-03-30 20:00:05
409
原创 比较好用的mysql可视化工具-----pycharm连接mysql图文教程
1.mysql可视化工具常用的mysql可视化工具有很多,如:sqlyog、navicat等等,使用这些工具需要另外安装,有的还可能收费。这里推荐一个比较容易被大家忽略的mysql可视化工具,大多数学python的人,都会使用pycharm,不得不说pycharm的功能及其强大,pycharm本身也是一个功能很强的数据库可视化工具,换句话说,如果安装了pyharm,那根本没必要在安装其他可视化工具了!这里以pycharm链接mysql为例,记录一下详细过程,供大家参考!2.使用工具我使用的工具如下
2021-08-14 16:51:09
11311
3
原创 使用pycharm可视化学习mysql的增删改查(CRUD)
1.使用pycharm连接mysql请参考文章比较好用的mysql可视化工具-----pycharm连接mysql图文教程2.pycharm可视化学习SQL操作2.1 创建数据库编写如下SQL代码创建数据库test,然后选中这两行代码,再点击执行操作,结果如下:注意:执行按钮不是平常执行python脚本的哪个按钮是下图中第二步标注的哪个地方的按钮-- 如果test数据库不存在,就创建test数据库:CREATE DATABASE IF NOT EXISTS test;2.2 选择数据库
2021-08-14 16:49:37
5744
原创 使用Beautiful Soup和requests爬取豆瓣电影top250
1. Beautiful Soup前面介绍了Beautiful Soup的基本使用方法,请参考文章 爬虫利器BeautifulSoup之CSS选择器的基本使用和Beautiful Soup之find()和find_all()的基本使用,现在搞个实例来验证一下。就以爬取豆瓣电影信息为例吧。2. 分析请求链接打开豆瓣电影top250首页信息如下:下滑到最下方,可以看到一共有10页,F12或右键检查每页的具体链接,可以发现如下规律:#第1页:https://movie.douban.com/top2
2021-08-13 23:13:28
4978
翻译 Beautiful Soup之find()和find_all()的基本使用
1.HTML文本这里以官方文档提供的html代码来演示Beautiful Soup中find_all()和find()的基本使用。<html><head><title>The Dormouse's story</title></head><body><p class="title"><b>The Dormouse's story</b></p><p class="stor
2021-08-12 22:22:19
10699
原创 爬虫利器BeautifulSoup之CSS选择器的基本使用
1.BeautifulSoup简介BeautifulSoup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。BeautifulSoup自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码。你不需要考虑编码方式,除非文档没有指定一个编码方式,这时,Beautiful Soup就不能自动识别编码方式了。然后,你仅仅需要说明一下原始编码方式就可以了。Bea
2021-08-12 21:11:09
5053
原创 python爬虫之使用selenium爬取京东商品信息并把数据保存至mongodb数据库
1.使用工具python3pymongomongodbseleniumchrome浏览器2.具体分析2.1 URL分析打开京东首页,在搜索框任意输入一个商品名称,这里以华为最新发布的手机华为p50为例,点击搜索,页面如下所示:可能会出现登录界面,可以先登录一下:进入首页后,先记录首页链接,然后连续下滑,可以看到翻页的地方:点击第二页额、第三页、第四页,然后记录下每一页的链接,可以发现如下规律:第一页:https://search.jd.com/search.php?key
2021-08-10 21:06:33
3495
1
原创 python爬虫爬取淘宝商品并保存至mongodb数据库
使用工具介绍python3.8selenium(请确保你已经成功安装了谷歌驱动chromedriver)mongodb数据库mongo-compass谷歌浏览器分析请求链接打开淘宝首页的链接,https://www.taobao.com/如下:这里以商品ipad为例,在搜索框输入ipad,点击搜索,如下所示:复制前四页的链接:找一下规律第一页:https://uland.taobao.com/sem/tbsearch?refpid=mm_26632258_3504122_3253
2021-08-09 21:39:01
5028
原创 python操作Excel之openpyxl的基本使用
1.安装openpyxlpip install openpyxl2.创建表格from openpyxl import Workbook# 创建一个对象wb = Workbook()# 使用默认的Sheetws = wb.active# 添加一行数据ws.append([1, 2, 3])# 再创建一张表单 命名为MySheet2ws2 = wb.create_sheet('MySheet2')# 给MySheet2 添加一行数据ws2.append([4, 5, 6])
2021-07-20 23:20:55
506
原创 python使用pymongo连接mongo数据库最简单实用的方法
python使用pymongo连接mongo数据库最简单实用的方法1.安装 安装pymongopip install pymongo 可视化工具使用的是mongodb compass2.连接数据库2.1 简单测试 连接数据库有很多方法,其中最简单的方法如下所示:import pymongocollection = pymongo.MongoClient('localhost', 27017).Test.testd = {"hello": "world"}collec
2021-07-17 11:41:02
3072
原创 scrapy爬虫之爬取百度手机助手app信息并保存至mongodb数据库(附源码)
声明: 本文内容仅供学习python爬虫的同学用作学习参考!!! 如有错误,请评论指出,非常感谢!!!1.使用环境python 3.8scrapy 2.5mongodbpycharm2.通用爬虫CrawlSpider介绍 CrawlSpider是Scrapy提供的一个通用Spider。在Spider里,我们可以指定一些爬取规则来实现页面的提取,这些爬取规则由一个专门的数据结构Rule表示。Rule里包含提取和跟进页面的配置,Spider会根据Rule来确定当前页面中的哪些
2021-06-11 18:08:54
857
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人