- 博客(96)
- 资源 (2)
- 收藏
- 关注
原创 springboot 上传文件
RequestParam注解的required属性默认为true,如果请求中不包含名为file的文件,将会抛出异常。MultipartFile是spring类型,代表HTML中form data方式上传的文件,包含二进制数据+文件名称。在你的控制器方法中,使用@RequestParam注解来声明一个MultipartFile类型的参数来接收上传的文件。链接:https://pan.baidu.com/s/1nOHKaWfa2yLzP8SYq1kSgQ。文件上传成功我们可以在项目中看到 新上传上来的文件。
2023-06-28 11:46:38
640
原创 centos7.9安装php7.4.30+nginx+apache+mysql
centos 安装 php7.4 nginx apache mysql5.7
2022-08-18 16:14:51
1887
2
原创 mysql常用命令
1:查看指定数据库大小mysql>use information_schema;mysql> select concat(round(sum(data_length/1024/1024),2),'MB') as data from tables where table_schema='db_name';+----------+| data |+----------+| 980.47MB |+----------+2:导出数据库]$ mysqldump -u
2022-03-22 16:25:13
303
转载 vue tinymce
Vue引入Tinymce富文本编辑器<template> <section id="tinymce-editor">{{value}}</section></template><script> import './tinymce.min.js' import './themes/silver/theme.min.js' import './langs/zh_CN.js' export default { na..
2022-01-18 14:45:47
126
原创 elasticsearch核心概念
Elasticsearch核心概念NRTNear Realtime(NRT):近实时,两个意思,从写入数据到数据可以被搜索到有一个小延迟(大概1秒);基于es执行搜索和分析可以达到秒级Cluster集群,包含多个节点,每个节点属于哪个集群是通过一个配置(集群名称,默认是elasticsearch)来决定的,对于中小型应用来说,刚开始一个集群就一个节点很正常Node节点,集群中的一个节点,节点也有一个名称(默认是随机分配的),节点名称很重要(在执行运维管理操作的时候),默认节点会去加入
2021-02-28 17:24:28
95
原创 mysql分组之后再求和
mysql分组之后再求和测试数据SELECT COALESCE(type,'all'), SUM(price)FROM productsGROUP BY type WITH ROLLUP;执行效果扫描小程序二维码方便阅读
2021-02-09 13:53:45
3255
转载 ps进程查看命令
ps进程查看命令ps -auxa:显示现行终端机下的所有进程,包括其他用户的进程u:以用户为主的进程状态x:通常与 a 这个参数一起使用,可列出较完整信息-e:等于 -Ae:显示环境变量f:显示程序间的关系ps auxps -ef查询参数说明USER:该进程属于那个使用者账号PID:该进程的进程ID号%CPU:该进程使用掉的 CPU 资源百分比%MEM:该进程所占用的物理内存百分比VSZ:该进程使用掉的虚拟内存量 (Kbytes)RSS:该进程占用的固定的内存量
2021-02-09 10:29:14
2994
原创 jquery-editable-select 可编辑输入的下拉选择框
<select id="editSelect"></select> <button class="btn" id="submitBtn">Default </button> <script> let dataList = [ 'a', 'ab', 'b', 'bc', 'dd', ...
2020-11-01 17:31:28
3839
原创 redis5.0.9之pipeline
为什么有 redis pipeline我们首先要知道redis命令的完整生命周期客户端发送命令->命令网络传输->命令服务端排队消费->返回命令结果上图是为使用 pipeline 的一个完整的redis命令生命周期下图是使用了 pipeline 的一个redis命令的生命周期从两张图的对比可以看出,redis pipeline 节省了网络传输时间。使用redis pipeline 需要注意的是,批量的命令数据不要过多。...
2020-11-01 11:31:14
134
原创 redis 5.0.9 主从复制加哨兵监控
redis安装一共六台机器一台 redis master二台 redis slave三台 哨兵监控安装 一主 二从master节点配置daemonize yespidfile /var/run/redis_6379.pidlogfile “redis_6379.log”dbfilename dump.rdbdir /opt/soft/redis/redis/dataprotected-mode no#bind 127.0.0.1slave节点配置da..
2020-10-25 19:20:07
265
原创 rabbitmq-18 Centos7 rpm 安装
依赖环境准备yum install -y \openssl \openssl-devel \unixODBC \unixODBC-devel \make \gcc \gcc-c++ \kernel-devel \m4 \ncurses-devel \tk \xz配置主机名和host[root@zhdc ~]# cat /etc/hostname zhdc[root@zhdc ~]# cat /etc/hosts127.0.0.1 localhost local.
2020-10-25 09:09:55
198
3
原创 redis 5.0.9 三主三从高可用集群搭建
安装ruby环境yum install -y rubygem sources -a http://mirrors.aliyun.com/rubygems/ruby-2.7.2]# gpg2 --recv-keys 409B6B1796C275462A1703113804BB82D39DC0E3 7D2BAF1CF37B13E2069D6956105BD0E739499BDBruby-2.7.2]# \curl -sSL https://get.rvm.io | bash -s stablerub.
2020-10-18 22:28:15
404
1
原创 CDH-Flume-1.6.0 日志数据到hdfs
# Name the components on this agenta1.sources = r1a1.sinks = k1a1.channels = c1# Describe/configure the sourcea1.sources.r1.type = exec#数据来源a1.sources.r1.command = tail -F /Users/hadoop/data/flume.loga1.sources.r1.shell = /bin/sh -c# Describe t.
2020-06-22 21:12:05
330
原创 Flume 1.6.0 cdh 环境搭建
localhost:software hadoop$ wget http://archive.cloudera.com/cdh5/cdh/5/flume-ng-1.6.0-cdh5.7.0.tar.gzlocalhost:software hadoop$ tar -zxvf flume-ng-1.6.0-cdh5.7.0.tar.gz -C ../app/localhost:conf hadoop$ cp flume-env.sh.template flume-env.shlocalhost:co.
2020-06-21 21:20:56
262
原创 Spark RDD 数据到 MySQL
数据www.xzdream.cn 1 2 江西www.xzdream.cn 3 4 广东www.xzdream.cn 1 2 西藏www.xzdream.cn 3 4 浙江将日志文件 put 到hdfspackage com.xzdream.sparkimport java.sql.DriverManagerimport org.apache.spark.{SparkConf, SparkContext.
2020-06-15 23:24:59
343
原创 SparkCore 流量统计
package com.xzdream.sparkimport org.apache.spark.{SparkConf, SparkContext}/** * Log App */object SparkContextApp { def main(args: Array[String]): Unit = { val sparkConf = new SparkConf(); sparkConf.setAppName("LogApp").setMaster("local[.
2020-06-14 18:03:40
242
原创 Hive 基于 Hadoop 进行数据清洗及数据统计
收集数据到Hadoop hdfs使用ETL(MapReduce)进行数据清洗(更新元数据 target)Hive 关联外部表创建工程添加MapReduce 依赖pom.xml<?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instan.
2020-06-06 22:40:38
4875
2
原创 CDH5.16.1 安装 Spark2
https://docs.cloudera.com/documentation/index.htmlhttp://archive.cloudera.com/spark2/parcels/2.4.0.cloudera2/下载包裹[root@hadoop001 cdh5.16.1]# mkdir spark2-parcels[root@hadoop001 spark2-parcels]# wget http://archive.cloudera.com/spark2/parcels/2.4.0.c.
2020-05-31 11:45:13
764
原创 CDH 5.16.1 离线部署
1:MySQL离线部署 元数据2:CM离线部署3:Parcel文件离线源部署 hfs yarn hive base zk节点初始化配置hosts内网ip172.31.232.209 hadoop001172.31.232.208 hadoop002172.31.232.207 hadoop003注意三台机器都要配置hosts配置防火墙开放外部可以访问的网站关闭防火墙[root@hadoop001 ~]# systemctl stop firewalld[root@...
2020-05-25 21:48:53
464
原创 MySQL 5.7.11 源码安装
离线部署mysql[root@hadoop001 cdh5.16.1]# tar -zxvf mysql-5.7.11-linux-glibc2.5-x86_64.tar.gz -C /usr/local/[root@hadoop001 local]# chown -R root:root mysql-5.7.11-linux-glibc2.5-x86_64/[root@hadoop001 local]# chown -R root:root mysql-5.7.11-linux-glibc2.5-.
2020-05-23 21:52:07
410
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人