docker学习笔记1

ubuntu下docker安装手顺:
终端输入:
sudo apt-get update
sudo apt-get install linux-image-extra-uname -r

添加Docker repository key

sudo sh -c “wget -qO- https://get.docker.io/gpg | apt-key add -”

添加Docker repository,并安装Docker

sudo sh -c “echo deb http://get.docker.io/ubuntu docker main > /etc/apt/sources.list.d/docker.list”
sudo apt-get update
sudo apt-get install lxc-docker
完成后查看docker 版本
sudo docker version

docker pull :从库里拉一个镜像下来,这里拉一个基础镜像举例。下图是已下载的情况:
下载完了之后用的docker images 查看镜像,图中划线的就是刚pull下来的镜像
关于镜像的常用命令如下:
docker history 镜像名或id –>输出当前镜像的建立过程
docker rmi 镜像名或id –>删除该镜像 可叠加,用空格断开。
其余镜像删除命令:
删除所有镜像–>docker rmi $(docker images | grep none | awk ‘{print $3}’ | sort -r)
删除标签是none的镜像–>docker rmi $(docker images | grep “^” | awk “{print $3}”)

docker build → 构建镜像 使用Dockerfile:

docker build -t <镜像名> <Dockerfile路径>

docker run 运行镜像生成容器:
下述命令后台运行(-d)一个新容器,同时为它命名(–name)、端口映射(-p 8080:8080 或者直接-P)、文件夹映射(-v 主机卷:容器卷)。
docker run -v -d -p 8080:8080 /home/wpdocker/tocontainer/passweb.zip:/var/lib/tomcat7/webapps/app.zip –name tomcat1 ubuntu/tomcat7

容器常用命令:
查看容器日志: docker logs -f <容器名orID>
查看正在运行的容器: docker ps
查看所有的容器,包括已经停止的: docker ps -a
为了保存容器,将容器弄成镜像: docker commit <容器id> 新的镜像名
删除所有容器(除了正在运行中的,stop后才能删除): docker rm $(docker ps -a -q)
删除单个容器(可多个同时,用空格断开): docker rm <容器名orID>
停止、启动、杀死一个容器(可多个同时,用空格断开): docker stop <容器名orID> docker start <容器名orID>
docker kill <容器名orID>
进入一个正在运行的容器中: docker attach <容器id前4个字母或容器名>
docker exec -it <容器id>

一个容器连接到另一个容器: docker run -itd –name sonar -link mmysql:db tpires/sonar-server

sonar容器连接到mmysql容器,并将mmysql容器重命名为db。这样,sonar容器就可以使用db的相关的环境变量了。
当需要把一台机器上的镜像迁移到另一台机器的时候,需要保存镜像与加载镜像:
机器a docker save busybox-1 > /home/save.tar
使用scp(ssh服务器命令)将save.tar拷到机器b上,然后:docker load < /home/save.tar

内容概要:本文档详细介绍了在三台CentOS 7服务器(IP地址分别为192.168.0.157、192.168.0.158和192.168.0.159)上安装和配置Hadoop、Flink及其他大数据组件(如Hive、MySQL、Sqoop、Kafka、Zookeeper、HBase、Spark、Scala)的具体步骤。首先,文档说明了环境准备,包括配置主机名映射、SSH免密登录、JDK安装等。接着,详细描述了Hadoop集群的安装配置,包括SSH免密登录、JDK配置、Hadoop环境变量设置、HDFS和YARN配置文件修改、集群启动与测试。随后,依次介绍了MySQL、Hive、Sqoop、Kafka、Zookeeper、HBase、Spark、Scala和Flink的安装配置过程,包括解压、环境变量配置、配置文件修改、服务启动等关键步骤。最后,文档提供了每个组件的基本测试方法,确保安装成功。 适合人群:具备一定Linux基础和大数据组件基础知识的运维人员、大数据开发工程师以及系统管理员。 使用场景及目标:①为大数据平台搭建提供详细的安装指南,确保各组件能够顺利安装和配置;②帮助技术人员快速掌握Hadoop、Flink等大数据组件的安装与配置,提升工作效率;③适用于企业级大数据平台的搭建与维护,确保集群稳定运行。 其他说明:本文档不仅提供了详细的安装步骤,还涵盖了常见的配置项解释和故障排查建议。建议读者在安装过程中仔细阅读每一步骤,并根据实际情况调整配置参数。此外,文档中的命令和配置文件路径均为示例,实际操作时需根据具体环境进行适当修改。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值