
笔记
lynn.lin
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Java 中的虚拟线程
简单介绍一下java中的虚拟线程的使用原创 2024-10-05 14:54:52 · 563 阅读 · 0 评论 -
springboot笔记
创建一个实现接口的自定义过滤器类。// 初始化方法 } @Override public void doFilter(ServletRequest request , ServletResponse response , FilterChain chain) throws IOException , ServletException {// 在这里编写对请求的处理逻辑 // 继续调用过滤器链 chain . doFilter(request , response);// 销毁方法 } }原创 2023-07-21 11:37:57 · 171 阅读 · 0 评论 -
Linux 安装 Docker CE
【代码】Linux 安装 Docker CE。原创 2023-06-28 18:35:45 · 1134 阅读 · 0 评论 -
floor 和 round 函数
floor 与 round原创 2022-12-12 11:21:42 · 227 阅读 · 0 评论 -
Linux 环境变量配置说明
不管是login shell还是non-login shell,启动时都会加载/etc/profile.d/*.sh中的环境变量。原创 2022-09-25 17:41:20 · 213 阅读 · 0 评论 -
MySQL经典50题(2022-06-30)
MySQL 经典50问原创 2022-06-30 09:16:57 · 220 阅读 · 0 评论 -
自定义 hadoop 服务管理脚本
自定义封装一个脚本,管理 hadoop 服务。原创 2022-06-20 09:34:17 · 179 阅读 · 0 评论 -
JS 画 ❤
直接上代码<!DOCTYPE html><html><head><title></title></head><body style="background-color: black"><canvas id='cavs' style='position:fixed; z-index:-1;'></canvas></body></html><script原创 2021-10-28 15:56:36 · 363 阅读 · 1 评论 -
java 线程池
使用线程池的优势降低资源消耗。通过重复利用已创建的线程降低线程创建和销毁造成的消耗。提高响应速度。当任务到达时,任务可以不需要等到线程创建就能立即执行。提高线程的可管理性。线程是稀缺资源,如果无限制的创建,不仅会消耗系统资源,还会降低系统的稳定性,使用线程池可以进行统一的分配,调优和监控。代码操作import java.util.concurrent.*;public class ThreadPoolExecutorTest { public static void main(St原创 2021-08-10 18:20:23 · 109 阅读 · 0 评论 -
zookeeper 基操
zookeeper 基操命令基本语法功能描述help显示所有操作命令ls path [watch]使用 ls 命令查看当前 znode 中所包含的内容ls2 path [watch]查看当前节点数据并能看到更新次数等数据create普通创建 -s 含有序列 -e 临时get path [watch]获得节点的值set设置节点的值stat查看节点状态delete删除节点rmr递归删除节点启动客户端[root@原创 2021-07-15 17:03:34 · 159 阅读 · 0 评论 -
jsp语法(极速入门)
jps语法jps头部文件声明<%@ page contentType="text/html;charset=UTF-8" language="java" %>language 属性 值只能是 java。 表示翻译的得到的是 java 语言的contentType 属性 设置响应头 contentType 的内容pageEncoding 属性 设置当前 jsp 页面的编码 import 属性 给当前 jsp 页面导入需要使用的类包autoFlush 属性 设置是否自动原创 2021-05-23 21:01:33 · 249 阅读 · 2 评论 -
Druid 数据连接池 之 新手入门
Druid简介Druid是阿里开源的数据库连接池,作为后起之秀,性能比dbcp、c3p0更高,使用也越来越广泛。Druid优点高性能。性能比dbcp、c3p0高很多。只要是jdbc支持的数据库,druid都支持,对数据库的支持性好。并且Druid针对oracle、mysql做了特别优化。提供监控功能。可以监控sql语句的执行时间、ResultSet持有时间、返回行数、更新行数、错误次数、错误堆栈等信息,来了解连接池、sql语句的工作情况,方便统计、分析SQL的执行性能。Druid的使用添加原创 2021-05-22 11:06:43 · 196 阅读 · 0 评论 -
Python3 中的 json 基操
什么是 json ?简单来说,JSON (JavaScript Object Notation) 是一种轻量级的数据交换格式,类似于python的字典数据类型(python与json)使用json模块的函数进行转换时,类型也同事发生改变。pythonjsondictobiectlist, tuplearraystrstringint, floatnumberTruetrueFalsefalseNonenull常用函数(jso原创 2021-04-22 17:15:11 · 145 阅读 · 2 评论 -
Kafka 之 基础架构,工作流程及文件存储机制
1)Producer :消息生产者,就是向 kafka broker 发消息的客户端;2)Consumer :消息消费者,向 kafka broker 取消息的客户端;3)Consumer Group (CG):消费者组,由多个 consumer 组成。消费者组内每个消费者负责消费不同分区的数据,一个分区只能由一个组内消费者消费;消费者组之间互不影响。所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。4)Broker :一台 kafka 服务器就是一个 broker。一个集群由多个 b.原创 2021-02-07 17:33:19 · 167 阅读 · 1 评论 -
集群管理常用脚本
shutdown-all.sh#!/usr/bin/env bashecho "=========================>正在关机 hadoop-03"ssh -t hadoop-03 "echo \"123456\" | sudo -S shutdown -h now"echo "=========================>正在关机 hadoop-02"ssh -t hadoop-02 "echo \"123456\" | sudo -S shutdown -h n原创 2021-02-05 11:13:52 · 140 阅读 · 0 评论 -
Kafka 之 消息队列模式
(1)点对点模式(一对一,消费者主动拉取数据,消息收到后消息清除) 消息生产者生产消息发送到Queue中,然后消息消费者从Queue中取出并且消费消息。 消息被消费以后,queue 中不再有存储,所以消息消费者不可能消费到已经被消费的消息。 Queue 支持存在多个消费者,但是对一个消息而言,只会有一个消费者可以消费。(2)发布/订阅模式(一对多,消费者消费数据之后不会清除消息) 消息生产者(发布)将消息发布到 topic 中,同时有多个消息消费者(订阅)消费该消息。 和点对点方式不同,发布原创 2021-02-04 15:59:36 · 290 阅读 · 0 评论 -
Zookeeper 之 监听器原理
监听器原理监听器原理详解首先有一个main线程在main线程中创建zookeeper客户端,这是就会创建两个线程,一个负责网络连接通信(connet),一个负责监听(listener)。通过connect线程将注册的监听事件发送给zookeeper。在zookeeper的注册监听列表中注册监听事件。zookeeper监听到有数据或路径变化,将消息发送给listener线程。listener线程内部调用process()方法。常见的监听监听节点数据的变化get path [watc原创 2021-02-04 11:21:59 · 308 阅读 · 0 评论 -
Zookeeper 之 Leader 选举机制
选举机制1)半数机制:集群中半数以上机器存活,集群可用。所以Zookeeper适合安装奇数台服务器。2)Zookeeper虽然在配置文件中并没有指定Master和Slave。但是,Zookeeper工作时,是有一个节点为Leader,其他则为Follower,Leader是通过内部的选举机制临时产生的。3)以一个简单的例子来说明整个选举的过程。假设有五台服务器组成的Zookeeper集群,它们的id从1-5,同时它们都是最新启动的,也就是没有历史数据,在存放数据量这一点上,都是一样的。假设这些服务器原创 2021-02-04 10:40:06 · 373 阅读 · 0 评论 -
SparkSQL 之 DataFrame, DataSet, RDD 之间的转换及关系
RDD、DataFrame、DataSet 三者的关系➢ Spark1.0 => RDD➢ Spark1.3 => DataFrame➢ Spark1.6 => Dataset如果同样的数据都给到这三个数据结构,他们分别计算之后,都会给出相同的结果。不同是的他们的执行效率和执行方式。在后期的 Spark版本DataSet 有可能会逐步取代RDD和DataFrame 成为唯一的API 接口。三者的共性➢ RDD、DataFrame、DataSet 全都是 spark 平台下的原创 2021-01-22 17:59:37 · 2431 阅读 · 2 评论 -
spark 3.0.1高可用集群搭建(超详细)
部署前的准备:1.zookeeper集群搭建完毕2.hadoop高可用集群搭建完毕节点规划三台主机上均部署 Worker 服务。同时为了保证高可用,除了在 hadoop001 上部署主 Master 服务外,还在 hadoop002 和 hadoop003 上分别部署备用的 Master 服务,Master 服务由 Zookeeper 集群进行协调管理,如果主 Master 不可用,则备用 Master 会成为新的主 Master。一, 下载对应的spark压缩包官网下载地址**根据自己原创 2020-12-23 13:01:19 · 1615 阅读 · 0 评论 -
Hadoop伪分布环境搭建(超详细)
实验环境:Centos7虚拟机一台关闭防火墙 # systemctl stop firewalld配置完成环境变量一定得:# source /etc/profile配置静态IP[root@localhost ~]# vi /etc/sysconfig/network-scripts/ifcfg-eno16777736 检测:ping baidu.com配置免密登录# 生成密钥ssh-keygen# 生成授权文件authorized_keysssh-copy-id localh.原创 2020-12-13 20:49:56 · 710 阅读 · 0 评论 -
Hadoop高可用集群搭建(超详细)
节点布置IP主机名描述部署软件192.168.200.201hadoop-01主节点jdk,hadoop,zookeeper192.168.200.202hadoop-02备用主节点jdk,hadoop,zookeeper192.168.200.203hadoop-03数据服务节点jdk,hadoop,zookeeper配置静态IP# 有的可能为 ifcfg-ens33vi /etc/sysconfig/network-scripts/ifc原创 2020-11-30 20:23:54 · 9647 阅读 · 4 评论 -
Mariadb(Centos7)部署主从数据库
节点详情ip主机名节点192.168.200.50mysql1主数据库节点192.168.200.60mysql2从数据库节点***先关闭防火墙基础环境安装配置本地yum源(CentOS-7-x86_64-DVD-1511)参考上一篇修改主机名vi /etc/hostname# 删除原有的,改为mysql1reboot[root@localhost yum.repos.d]# vi /etc/hostname [root@localhost原创 2020-11-09 19:51:37 · 553 阅读 · 1 评论 -
linux操作之CIFS(samba)服务搭建
建议使用本地yum源(CentOS-7-x86_64-DVD-1511)安装samba服务yum -y install samba[root@localhost yum.repos.d]# yum -y install samba已加载插件:fastestmirrorcentos7 .原创 2020-11-07 10:45:07 · 1442 阅读 · 0 评论 -
linux操作之nfs服务搭建
规划节点ip主机名节点192.168.200.10nfs-servernfs服务器192.168.200.20nfs-clientnfs客户端安装nfs服务# 安装nfs必须先安装rpcyum -y install rpcbind# 安装nfs服务yum -y install nfs-utilsnfs服务使用# 创建一个共享目录mkdir /mnt/test# 编辑nfs配置文件vi /etc/exports# 添加以下内容# /mnt原创 2020-11-04 20:18:15 · 958 阅读 · 1 评论 -
linux操作之vsftp服务器搭建
修改yum源为本地mkdir /opt/centos #创建挂载位置mount /dev/cdrom /opt/centos/ #进行挂载操作ls /opt/centos/ 检测挂载结果mv /etc/yum.repos.d/* /media/ #将/etc/yum.repos.d下所有文件移走vi /etc/yum.repos.d/local.repo #编辑本地yum文件内容如下: [centos7] name=centos7 baseurl=file:///opt/centos原创 2020-11-02 20:55:22 · 2188 阅读 · 5 评论 -
linux之LVW(磁盘)操作
添加硬盘重启虚拟机创建分区[root@localhost ~]# fdisk /dev/sdb欢迎使用 fdisk (util-linux 2.23.2)。更改将停留在内存中,直到您决定将更改写入磁盘。使用写入命令前请三思。Device does not contain a recognized partition table使用磁盘标识符 0xaf7b94f2 创建新的 DOS 磁盘标签。命令(输入 m 获取帮助):p磁盘 /dev/sdb:10.7 GB,原创 2020-11-01 19:09:07 · 665 阅读 · 0 评论 -
shell编程(变量定义)
变量如何定义变量名=变量值(等号左右不允许有空格)变量的定义规则变量名区分大小写变量名不能有特殊符号变量名不能以数字开头等号两边不能有任何空格变量名尽量做到见名知意变量的定义方式基本方式[root@localhost ~]# A=hello[root@localhost ~]# echo $Ahello命令执行结果赋值给变量[root@localhost ~]# B=$(date +%F)[root@localhost ~]# echo $B2020原创 2020-10-29 20:30:38 · 190 阅读 · 0 评论 -
PyCharm 将代码上传到 GitHub(Gitee)出现创建成功仓库到没有内容
原因:是博主的这个github账号,之前提交代码保存过账号信息(用户名和密码),所以导致这次提交提示错误解决方法:打开本地Windows的cmd命令窗口,输入rundll32.exe keymgr.dll,KRShowKeyMgr将之前存储的git提交时保留的用户名密码删除...原创 2020-09-14 11:36:24 · 1446 阅读 · 1 评论 -
phpMyAdmin5.0.2安装(windows10)
下载文件官网链接解压至 D:\program_files\Apache24\htdocs安装Apache安装php配置文件复制文件 config.sample.inc.php 并重命名为 config.inc.php编辑文件 config.inc.php修改此处为登录密码测试开启 Apache 服务http://127.0.0.1/phpMyAdmin-5.0.2-all-languages/index.php问题解决phpMyAdmin - 错误缺少 mysqli 扩展原创 2020-09-08 19:09:57 · 3177 阅读 · 0 评论 -
redis部署(Centos7)
下载安装文件redies官网yum -y install gcc解压,编译tar -zxvf 文件名cd redies安装目录make MALLOC=libc #编译cd src && make install #继续安装测试./redis-server进行到这里就已经成功了ctrl + c 退出这个界面...原创 2020-09-02 08:50:55 · 125 阅读 · 0 评论 -
Spark集群搭建
下载文件官网链接(时常打不开)链接: https://pan.baidu.com/s/1VUc2ps_2jFF5N6qWse-S-A 提取码: 83ee解压,配置# 解压tar -zxvf 文件名配置 ./conf/spark-env.sh 和 slaves** cp spark-env.sh.template spark-env.sh**添加以下内容:export JAVA_HOME=/root/software/jdk1.8export SCALA_HOME=/root/soft原创 2020-08-27 17:06:28 · 192 阅读 · 0 评论 -
scala部署(linux)
下载文件官方链接解压文件tar -zxvf 文件名配置环境变量vi /etc/profile#添加以下内容:export SPARK_HOME=/root/software/spark-2.4.0-bin-hadoop2.7export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin#使环境变量立即生效:source /etc/profile检测输入 scala 即可:...原创 2020-08-27 16:26:32 · 173 阅读 · 0 评论 -
sqoop1.4.7部署(centos7)
下载文件官方链接解压配置1. tar -zxvf 文件名 -C 目标路径2. 配置环境变量 vi /etc/profile 添加以下: export SQOOP_HOME=/root/software/sqoop-1.4.7.bin__hadoop-2.6.0 export PATH=$PATH:$SQOOP_HOME/bin3. 配置sqoop-env.sh(该配置文件在sqoop/conf下) cp sqoop-env-template.sh sqoop-e原创 2020-08-19 09:57:22 · 174 阅读 · 0 评论 -
Centos7配置清华大学yum仓库
参考连接,清华镜像网站备份原有yum源cp /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.bak直接覆盖原有的Centos-Base.repo# CentOS-Base.repo## The mirror system uses the connecting IP address of the client and the# update status of each mirror to pic.原创 2020-08-16 10:06:28 · 4870 阅读 · 0 评论 -
flume部署(集群日志上传至hdfs)
官方文档下载安装包官方链接实验版本:1.6.0解压至目标目录tar -zxvf 文件名 -C 目标目录配置环境变量及配置文件vi /etc/profile# 添加:export FLUME_HOME=/root/software/flume-1.6.0export PATH=$PATH:$FLUME_HOME/binexport FLUME_CONF_DIR=/root/software/flume-1.6.0/conf# 创建目录 logsmkdir /root/sof.原创 2020-08-12 16:26:49 · 486 阅读 · 0 评论 -
kafka集群搭建及测试
下载安装包官网链接解压至目标路径tar -zxvf 文件名 -C 目标路径修改配置文件配置环境变量:( /etc/profile)export KAFKA_HOME=安装路径export PATH=$PATH:KAFKA_HOME/bin分发文件启动kafkakafka-server-start.sh /root/software/kafka_2.11-1.0.0/config/server.properties...原创 2020-08-12 08:24:37 · 313 阅读 · 0 评论 -
HBase集群部署
实验环境(centos7):192.168.200.128 master192.168.200.129 slave1192.168.200.130 slave2都已安装 jdk1.8, hadoop, zookeeper下载压缩包官网链接解压把压缩文件上传到你想安装的位置( /root/software )实验位置# tar -zxvf 文件名配置配置文件均在 $HBASE_HOME/conf配置环境变量# vi /etc/profile添加:export H.原创 2020-08-10 11:45:06 · 201 阅读 · 0 评论 -
IDEA手写wordcount及Exception in thread “main“ java.io.IOException: (null) entry in command string: null
新建maven工程File --> new -->progect选择maven工程编辑pom文件<?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http:/原创 2020-08-06 16:00:29 · 2350 阅读 · 0 评论 -
MySQL约束
约束介绍对表中的数据进行限定,保证数据的正确性,有效性和完整性。约束分类1.主键约束: primary key2.非空约束: not null3.唯一约束: unique4.外键约束: foreign key操作添加/删除主键约束的方式建表示添加mysql> create table 表名( >列名1 数据类型 primary key, >列名2 数据类型 >);mysql> create table 表名( >列名1 数据类型原创 2020-08-04 12:11:15 · 141 阅读 · 0 评论