- 博客(17)
- 收藏
- 关注
转载 Centos7.3自动化脚本安装oracle11数据库
Centos7.3自动化脚本安装oracle11数据库以下内容实验过几次了,可能还存在些小问题,如果在跑以下脚本中遇到问题,自己仔细排查即可,一般也就一些换行在复制时有错误或者文件名不一样本来想一个脚本搞定的,但是安装过程中涉及到切换用户执行命令等操作,不容易实现,故目前只能通过依次执行多个脚本来安装,起码比以前一行一行复制粘贴和修改要方便注意事项:这里我们需要用到两个oracle压缩文件,下载地址为https://pan.baidu.com/s/1c3zNv4 请自行下载1of7和2of7这两
2021-05-07 11:15:54
547
转载 HBase 安装snappy压缩软件以及相关编码配置
HBase 安装snappy压缩软件以及相关编码配置本文转载自:https://www.cnblogs.com/mojita/p/11899486.html前言 在使用HBase过程中因为数据存储冗余、备份数等相关问题占用过多的磁盘空间,以及在入库过程中为了增加吞吐量所以会采用相关的压缩算法来压缩数据,降低存储空间和在入库过程中通过数据压缩提高吞吐量HBase-2.1.5Hadoop-2.7.7一、HBase安装Snappy压缩软件$ wget wget https...
2020-10-23 14:31:01
565
原创 大数据(四)---------在Eclipse上搭建Hadoop开发环境,HDFS---API简单实现
Eclipse环境搭建:1.保证电脑上已经配置JDK2.配置hadoop的环境变量,变量名:HADOOP_HOME,变量值:hadoop的路径修改Path路径----->新增 %HADOOP_HOME%\bin在系统变量中新建HADOOP_USER_NAME,值为root3.配置eclipse环境①在eclipse启动之前,将hadoop-eclipse-...
2019-06-13 20:41:07
758
原创 大数据(三)---------搭建Hadoop伪分布式和完全分布式集群
伪分布式:只需要一个虚拟机,所有节点都在该虚拟机上1.首先,需要安装JDK,将上传的jdk解压tar -zxvf jdk压缩包2.配置环境变量,位置:/etc/profileexport JAVA_HOME=/opt/software/jdk1.8.0_121export PATH=$PATH:$JAVA_HOME/bin注:两个地方都能配置 用户变量 .b...
2019-06-12 14:58:52
613
原创 大数据(二)---------HDFS--SecondaryNamenode----持久化
在HDFS里,主节点(NN)掌握一批元数据(描述数据的数据) ---->放在内存里面硬盘和内存的区别: 硬盘:内存大、便宜、但是慢 内存:内存小、贵、但是快为什么要持久化?为了保证元数据的安全,要将内存中的数据放到磁盘(硬盘)中---->这就是持久化。当我们的集群因为断电等原因产生问题的时候,问题解决,重新开机,会去磁...
2019-06-11 21:52:52
317
原创 Shell脚本的计算逻辑知识点
一个程序的基本结构图: 如果我们要把标准输出和错误输出都写入到一个文件里,例如:ls /abc / 1>file.txt 2>1,abc这个路径是不存在的,代表错误输出,结果file.txt文件里只有标准输出,因为标准输出把错误输出给覆盖了。 所以,就要用到&把他们连接起来,ls /abc / 1>file.txt 2>&a...
2019-06-10 15:11:50
162
原创 Mysql同时向两张关联表插入数据
举个栗子,有两张表,user表的主键id是travel_user表的一个字段,要求向user表添加数据时,同时向travel_user表添加一条数据。两张表的具体结构如下:上表的id就是下表的uid请看service层的代码具体实现:public boolean insert(DsjUser user,Integer tid) throws Exception { ...
2019-06-10 10:02:23
35715
8
原创 Linux常用命令小全
1. cd 切换工作目录 root 主目录: cd cd ~ cd /root2. ifconfig -a 查看ip地址3. touch 一是:用于把已存在文件的时间标签更新为系统当前的时间(默认方式),它们的数据将原封不动地保留下来; 二是:用来创建新的空文件4. ...
2019-06-09 22:44:56
246
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人