- 博客(15)
- 收藏
- 关注
原创 安装Mysql 8.0.24版本!
话不多说直接上包!上传包解压注意 是 -xvf 解压到 myall里面tar -xvf mysql-8.0.24-linux-glibc2.12-x86_64.tar.xz -C /root/myall/改名字 mv mysql-8.0.24-linux-glibc2.12-x86_64/ mysql查看mariadb的相关包并卸载1.使用 rpm -qa | grep mariadb 命令查看;2.使用 rpm -e --nodeps xxx你查到的 命令卸载;进入cd
2021-04-29 16:30:33
800
原创 Linux下安装oracle 11G 无坑版本!
真不容易啊!装个oracle老报错啊!给兄弟们整理个无坑版本!一、上传解压包安装包链接:点我领取安装包提取码:0514先不要着急解压 传上去就行了!二、建立oracle用户1.root下新增用户组groupadd oinstallgroupadd dba2.新建用户useradd -g oinstall -G dba oracle(1)为新用户设置密码passwd oracle(2)密码随便你输入[root@hadoop05 ~]# passwd oracle更改用户
2021-04-19 09:44:47
999
2
原创 linux下快速安装mysql 无坑最新版本
进入正题 快速安装 五分钟搞定!mysql安装包百度链接:点我进网盘提取码:dcul1、上传至服务器,指定目录然后解压:tar -xvf mysql-5.7.27-1.el7.x86_64.rpm-bundle.tar2、卸载冲突的rpm组件,如果不删除,会安装不成功。先查询,再删除:查询命令:rpm -qa | grep postfixrpm -qa | grep mariadb删除命令:rpm -e --nodeps 两个查询到的都卸了3、安装相关依赖:yum -y ins
2021-04-08 11:22:50
216
原创 大数据搭建之——Kafka集群
搭建一个kafka集群准备工作安装好JDK: 点我看过程安装好zookeeper:点我看过程kafka安装包:点我领取安装包 :提取码:4hn4配置信息如下192.168.197.111 ······································· hadoop01作为主节点192.168.197.112 ······································· hadoop02作为从节
2021-04-01 17:13:18
204
原创 Linux下搭建Redis6.0.6版本 无坑特顺利版
按着顺序来!!!按着顺序来!!!绝对没错!!!1、上传解压redis包 也可以网上下载yum install wget 安装 wgetwget http://download.redis.io/releases/redis-6.0.6.tar.gz 下载包 (也可以上传)tar -zxvf redis-6.0.6.tar.gz -C /root/myall/redis 解压如果下载地址改了,可以进入我的网盘拿安装包!链接:https://pan.baidu.com/s/1LVFLjzjQhas
2021-03-24 17:39:13
548
2
原创 mysql的用户和权限
上一篇刚刚配置好mysql 现在我们来玩一玩linux下安装mysql 无坑版 贼简单一、查看用户查看用户并没有直接的SQL语句,而是进入 mysql 数据库的 user 表(这个mysql库和user表都是一开始就有的),直接用 select * from user;来查看有什么用户登录数据库mysql -uroot -ppassword:你的密码use mysql;select * from user;二、创建用户create user 'user_name'@'localhost
2021-03-23 19:40:28
199
原创 linux下安装 mysql-5.7.27 没有坑,我已经踩了巨多的坑,都填了!
踩了超级多的坑才配置成功,真难啊!1、查找并卸载原有的mysql数据库链接:mysql安装包百度网盘链接提取码:spks1.使用 rpm -qa | grep mysql 命令查找mysql数据库软件包及依赖包;若没有任何显示则证明没有相关的mysql数据库;若显示了相关的软件包及依赖包,使用 yum remove xxx 命令依次删除显示的包;注意:xxx为显示的软件包及依赖包包名; yum remove xxx2.使用 find / -name mysql 命令查找原有mysql数据库
2021-03-23 17:03:01
481
1
原创 大数据搭建之hadoop HA
搭建hadoop HA 之前须知安装好jdk 以及 zookeeperjdk安装连接:jdk安装zookeeper安装连接:zookeeper安装开始搭建hadoop参数列表hadoop01:192.168.197.111:NN1,ZKFC,ZK,JNNhadoop02:192.168.197.112:NN2,DN,JNN,ZKFC,ZKhadoop03:192.168.197.113:DN,JNN,ZKhadoop04:192.168.197.114:DN,JNN,ZKFC上传解压
2021-03-17 14:32:28
161
原创 大数据环境搭建之安装zookeeper
前提安装zookeeper之前 一定要安装好JDK不会安装JDK的兄弟们可以进链接安装JDK1.8上传zk包解压包tar -zxvf zookeeper-3.4.10.tar.gz -C /root/myall/zookeeper/删除这两个文件夹 rm -rf docs/ src/进入 conf目录cd conf/修改zoo_sample.cfg 名字mv zoo_sample.cfg zoo.cfg编辑zoo.cfg文件vim zoo.cfg配置好这
2021-03-16 17:38:29
179
原创 大数据搭建之克隆五台虚拟机以及安装JDK1.8
克隆五台虚拟机1、关闭状态下的虚拟机 右击点击 --管理 --克隆 点击下一步2、继续点击下一步3、选择 创建完全克隆 – 下一步4、修改要克隆的虚拟机名称 -----点击完成5、打开克隆的虚拟机 修改hostnamevim /etc/hostname6、修改网络配置 因为是克隆的第一台虚拟机 所以配置都一样,需要修改网络配置vi /etc/sysconfig/network-scripts/ifcfg-eth33只需要修改IPADDR 这一处就可以 hadoop01虚拟机
2021-03-16 14:22:19
375
原创 Scala和Spark的安装教程
文章目录1.概述2.安装3.配置系统变量4.进入spark shell1.概述spark官方http://spark.apache.orgspark是一个围绕速度,易用性和复杂分析架构的大数据处理框架;他有如下优势:运行速度快。spark是基于内存的,是hadoop的是100倍;易用性。可以使用java,scala,python或者其他语言来写;mapReduce,还支持sql查询,流数据,机器学习和图计算;spark不仅仅可以处理hdfs上的数据,还可以处理其他数据。三台虚拟机
2020-09-25 15:52:21
885
原创 java输出json格式的文件超级详细简单!!!!
话不多说直接上代码package ram;import com.alibaba.fastjson.JSON;import com.alibaba.fastjson.serializer.SerializerFeature;import java.io.*;public class Main { //存放json数据 public static void main(String[] args) throws IOException { //输出路径
2020-08-25 16:44:57
5359
1
原创 Java把Excel表格转换成json的所有代码
标题Java把Excel表格转换成json**pom文件<dependencies> <dependency> <groupId>org.apache.poi</groupId> <artifactId>poi</artifactId> <version>3.17</version> </depen
2020-07-31 13:45:26
370
转载 java将excel表转换成json
实体类在1 package bean; 2 3 public class Question { 4 5 private String timu; //题干 6 private String leixing; //类型 7 private String axuanxiang; //A选项 8 private String bxuanxiang; //B选项 9 private String cxuanxiang; //C选项10
2020-07-28 15:47:53
699
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人