2019/08/06 kubernetes对象(01)

本文深入探讨Kubernetes(K8s)容器编排工具的核心组件与架构,包括master节点的API server、scheduler、controller-manager等关键进程,以及kubelet、kube-proxy在节点上的角色。阐述了如何通过spec和status管理K8s对象的状态,使用deployment、service进行容器编排与服务注册,实现容器的动态调度与负载均衡。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

k8s是容器编排工具
大体的组件
1.master (需要把各种kv数据存储在etcd,分布式键值存储中,raft协议,集群式奇数节点,确保发生网络分区时能够确定谁拥有cron谁没有,防止脑裂)有三个重要的进程:
APIserver与外部客户端请求的总接口,对于整个集群的控制管理使用都需要通过api,命令行工具是kubectl。假如需要在pod启动容器,
经由scheduler调度器,决定将这个请求发到哪个节点,调度的结果告诉给apiserver,
在每个node上有一个代表k8s工作的进程,称为kubelet,负责执行完成要在本地完成的任务,比如启动一个pod(在pod中启动一个container)
controller-manager 监控编排的目标容器,防止要求启动的数量不够,是否符合我们指定的数量,在master进程监控和维护node节点,没启动就会帮你启动起来
kubelet在本地启动一个又一个pod,在pod内部可能又一个或多个容器,(pod应该有一个基础容器,infonce,container,作用是创建网络名称空间,让其他加入到此pod的容器,加入到网络名称空间,地址对于k8s来讲是属于pod的,一个pod有n个容器,n个容器共享同一个pod地址,同一组应用的pod可以启动不止一个,多个pod,同一应用的可以实现负载均衡的效果,既能冗余,又能实现负载均衡),
用户的请求就可以分发给两个pod,
对pod来讲,随着节点改变,有可能pod会中止 controller-manager要 确保每个pod有足够的量,因此有可能在其他node上启动另外的pod,
对k8s,内部每个节点的地址分配方式是平面化的,是可路由的ip,意味着可以尝试分一个B类网络网段,假设给一个所谓的集群,而后每一个节点可以得到一个子网,找个节点上的容器都应该分配子网中的地址
随意有可能启动的pod,地址已经发生改变了,由于pod地址经常发生改变,客户端如果直接访问pod,用ip地址访问,的得不到一个可持续访问的接口
容器运行一个dns服务,给每一个节点取一个主机名,访问时基于找个主机名来访问,前提是,pod地址改变了就需要改dns中的结果,这样子基于客户端访问得到的解析结果才是正确的,
需要及时更新,就需要一个联动的应用来实现,skydns。1。3之前,之后是kubedns,来完成找个功能,这个名称分配的结果只能是k8s内部节点的名称,而不是公网上解析的名称
而且这个名称的工作方式,主要是实现名称发现的,服务注册和名称发现的,生来的目的就是来解决这方面的问题,
kubedns对k8s是一个addon附件,不是一个插件,用不用是取决于你,对k8s来讲有个组件,能 够将地址固定化,
基于falnnel,来地址分配的时候,k8s自己有一个约定俗称的方式,把10.254.0.0这个地址段内的,
预留给service
构建出一个service的逻辑组件来,这个组件拥有一个固定地址,地址是从这个地址段分配出来的,分配出来就固定的,动态分配但不回收,创建一个服务组件以后来给个地址,外部用户访问这个地址的时候,客户端是一直固定不变的,他只是将用户的请求代理至关联到的后端容器,反代也需要知道地址,反代服务器如何知道节点在哪里,服务反代不是基于地址来关联到pod的,而是label,基于标签的方式关联到各pod,标签就是键值对的组合,如果两个pod标签相同,不管地址是什么,service都能帮你挑出来
每一个node都有一个组件kubeproxy,是每一个service的实现,service是一个逻辑组件,真正实现反代功能的组件
pod在本机可能不止一个,kubeproxy调度的可能pod也不止一个,而kube proxy早些时候,是一个主机上的网路名称空间,这个名称空间可以生成,所谓的iptables规则(dnat),后来,通过iptables可以把用户的请求负载均衡到本地节点不同的pod上 ,
service ,label,kube_proxy,kubelet。
apiserver
scheduler
controller-manager
kubectl
etcd-manager
在这里插入图片描述
k8s每个容器需要一个集群内可以路由的地址,因此,无论同一节点,还是不同节点容器之间进程通信时,可直接使用这个地址,所见的地址就是访问的地址,中间不会经过其他的
为k8s实现这个功能的解决方案有很多,falnnel,最简单的解决方案,完全在生产可用的解决方案

k8s集群详细架构图在这里插入图片描述
内部有很多集群对象在这里插入图片描述
用这些对象来表现集群中个组件的状态在这里插入图片描述
这些状态包含这么几条在这里插入图片描述
用描述式的语言来表示在k8s集群当中,在每个节点上运行容器上的应用程序,那个pod运行什么容器,要用k8s所谓的对象来进行表示在这里插入图片描述

可得到的资源有哪些
在这里插入图片描述
对容器化的应用程序来讲,如何去定义本身的策略,升级是滚动升级还是一起升级
在这里插入图片描述在这里插入图片描述
每一个集群对象就是 record of intent,对象创建以后,k8s集群必须保持存在,如果意外宕机,k8s集群会继续尝试帮他创建出一个,k8s集群式必须确保对象存在的改变
所以在创建对象的时候,必须告诉k8s集群,这个对象应该处于什么状态,应该附有什么样的工作方式,这种称为集群期望的目标状态 desired state,(类似puppet部属应用的时候,需要描述目标状态,确保每个资源处于应该处的状态)
对k8s来讲,调度的不是资源而叫k8s对象,这个k8s对象核心的就是容器或者称为pod,对于k8s集群的管控,要通过k8s的API来进行,master镜像的APIserver
对整个k8s的集群对象管理,只有通过k8sapi的来实现,apiserver
在这里插入图片描述
对象的两个核心属性,每一个k8s对象,都要包含两个彼此有可能嵌套的对象字段,对象属性,主要式来管理对象的配置,
1.spec()
2.status(类似puppet目标指明某个主机的tomcat必须为不安装状态,但是当下状态可能是运行的,所以每个资源有当前状态和目标状态)

spec期望的状态
在这里插入图片描述
status当前状态
在这里插入图片描述
这就是k8s集群的spec和status,如何去定义k8s集群就是一个又一个的container,
1.有几个副本
2。应该处于什么目标状态

任何给定的时间,k8s的控制面板,负责去管理每一个对象要处于目标状态
(类似puppet,但是puppet管理的是资源,k8s管理的叫对象)
在这里插入图片描述在这里插入图片描述
**一旦我们要创建对应对象的时候的容器,service,这些都可以称为k8s集群的对象,创建的时候,必须给出目标状态的描述信息
这些需要放在配置文件中,ansible的配置文件是yaml格式的,puppet配置文件是ruby中的域类型的定义语言
现在大多数程序的配置语言都是yaml格式的,很少用xml
尤其是go或者其他新晋研发的各种容器级应用,基本都是yaml格式的文件,比较直观,容易理解
k8s支持两种格式yaml和json,直接给yaml,k8s会直接转成json,或直接给json
**
可以在一个文件中启动N个pod,N个service,service和service之间互相调用,构建出一个应用集群来,nmt等等,完全可以编排好配置文件,直接在集群中运行,在这里插入图片描述
编排一组容器有replicasets,controller,
deployment(官方推荐的容器编排方式)
deployment实例
在这里插入图片描述
yaml格式的
api版本是什么,不同k8ss的版本兼容的api版本也不同,程序升级了,内部的api也有可能会升级,所以必须描述清楚当前此文件所适用的api版本,字符并不区分大小写
在这里插入图片描述
用来指明当前对应的部署,应该属于哪一种对应的部署方式,kind:deployment
在这里插入图片描述
元数据,作为unique key of the deployment instance,每一个deployment在k8s中 是一个实例,deployment实例。
deployment创建,是完全可以实现把它删除的,因此将来完成创建,还要回过来引用这个部署,对此部署,可以根据自己的需求来删除,升级
引用的符号就是deployment名称,一般约定俗成,文件名是什么,deployment就是什么

在这里插入图片描述
描述其目标状态,
1.replicas副本数量,启动多少个pod,多了关掉,少了补足
2.template pod自身模版
3.label kv=app键:nginx值 ,这一组pod都会有相同的label
让label基于所谓的selecor挑选以后定义成service,只要有一个label就属于一个service
在这里插入图片描述
第一个spec是描述pod的目标状态,每个pod是用来运行容器的
下面是嵌套的spec
缩进,每个pod用来运行的容器、
列表容器,在每个pod内部的容器至少有一个
name容器名字=nginx 是作为dns_label使用的
image 基于哪个镜像来启动容器的
每个pod内部有一个容器nginx
每个pod都有一个标签,app:nginx

在这里插入图片描述
一般deployment对象要么是pod,要么是service
创建好一个deployment’要记录下来
在这里插入图片描述
对应的每个yaml格式的文件中,三个组件是必须的
apiversion
kind
metadata
在这里插入图片描述https://kubernetes.io/docs/resources-reference/v1.5在这里插入图片描述
replicas对应应该启动pod的数量在这里插入图片描述
template创建pod时,要用到的模板在这里插入图片描述
pod模板属性有俩个属性,
metadata,
spec
在这里插入图片描述
pod自身的属性在这里插入图片描述在这里插入图片描述
暴露出哪些端口在这里插入图片描述可用使用container而不使用pod来直接运行一个容器在这里插入图片描述
定义的pod在这里插入图片描述
可用使用deployment来编排一个完整意义上的容器在这里插入图片描述
也可用使用daemon set来编排使用容器在这里插入图片描述推荐使用deployment

service对象,基于name可以删除和修改unique key要唯一
targetport目标端口80、
每个service在kube 更像是dnat,service就是一个静态ip,pod哪个容器监听80就转给哪个容器
service重要的组件selector,把哪些label归类到此service上来
service定义好了,需要有pod,不然用户请求来了,不知道转发到哪里
type:loadbalancer 负载均衡,调度到哪个pod的容器上
在这里插入图片描述在这里插入图片描述
service的spce用的有哪些
在这里插入图片描述
能过够被别人做dnat目标转发的端口在这里插入图片描述
selector,发往此service的流量,转发到pod
在这里插入图片描述
type,请求到达ip地址以后,转发其道后端pod之上的方式
可用的选项有externalname对外的名称
clusterip,nodeport,loadbalance直接负载均衡调度
在这里插入图片描述
cluster的ip,发给另外的service,由service调用下一个service,用的比较多的可能就是loadbalance在这里插入图片描述

**部署k8s首先部署的是etcd,所以先启动etcd,2379,2380端口
先启动flannel
启动master节点,三个服务 apiserver,controller-manager,kube-scheduler
**在这里插入图片描述
node2,1节点都启动服务
在这里插入图片描述
使用ifcofnig,查看docker0应该是使用的,flannel分配的地址,重新启动以后地址可能要重新分配的在这里插入图片描述
kubectl可用访问集群
在这里插入图片描述
对应各种接口的version版本
在这里插入图片描述
定义一个deployment来启动容器
定义一个启动httpd 的镜像
在这里插入图片描述在这里插入图片描述在这里插入图片描述
mantainer 维护者
add 添加文件
把app/data当作默认运行的使用目录
cmd 运行程序,传递参数-f运行前台,-h家目录 appdata
expose暴露端口
在这里插入图片描述
构建镜像,打标签,不适用执行在这里插入图片描述
使用下面的
在这里插入图片描述
推镜像上去,不使用执行在这里插入图片描述
另外的节点去pull下来,不使用执行在这里插入图片描述
先手动启动镜像看看,使用这个在这里插入图片描述在这里插入图片描述在这里插入图片描述
访问没有问题就关闭在这里插入图片描述
把这个镜像推上去在这里插入图片描述
另外的节点pull下来在这里插入图片描述
定义一个deployment
replicas启动几个副本
保存过去的版本revisionhistorylimit,方便回滚
container是spec所有的属性,需要缩进

在这里插入图片描述在这里插入图片描述
跑一边试试,-f指明哪个文件来create在这里插入图片描述
查看信息,期望由两个副本,现在是2各副本在这里插入图片描述
调度到node1,2上了在这里插入图片描述所以在node1,2各自可用看到pod在这里插入图片描述
没起来,下载文件失败,即便本地有也会向服务器拖在这里插入图片描述
删除刚才的deployment,意味刚才创建的pod信息都没有了,重新修改文件在这里插入图片描述
**对方好像不允许使用本地仓库使用镜像的,推到dockerhub也可以,打新的标签推之前需要先登陆
**在这里插入图片描述
在这里插入图片描述
另外节点可以pull一份下来在这里插入图片描述在这里插入图片描述在这里插入图片描述
再次创建在这里插入图片描述
启动起来了在这里插入图片描述
端口没有做暴露,deployment定义时没有暴露在这里插入图片描述
查看这个容器在这里插入图片描述
没有暴露端口,是因为就k8s启动的,地址和端口属于pod不属于容器
在这里插入图片描述
pod启动成功在这里插入图片描述
要想能被访问需要定义一个service

内容概要:本文《2025年全球AI Coding市场洞察研究报告》由亿欧智库发布,深入分析了AI编程工具的市场现状和发展趋势。报告指出,AI编程工具在2024年进入爆发式增长阶段,成为软件开发领域的重要趋势。AI编程工具不仅简化了代码生成、调试到项目构建等环节,还推动编程方式从人工编码向“人机协同”模式转变。报告详细评估了主流AI编程工具的表现,探讨了其商业模式、市场潜力及未来发展方向。特别提到AI Agent技术的发展,使得AI编程工具从辅助型向自主型跃迁,提升了任务执行的智能化和全面性。报告还分析了AI编程工具在不同行业和用户群体中的应用,强调了其在提高开发效率、减少重复工作和错误修复方面的显著效果。最后,报告预测2025年AI编程工具将在精准化和垂直化上进一步深化,推动软件开发行业进入“人机共融”的新阶段。 适合人群:具备一定编程基础,尤其是对AI编程工具有兴趣的研发人员、企业开发团队及非技术人员。 使用场景及目标:①了解AI编程工具的市场现状和发展趋势;②评估主流AI编程工具的性能和应用场景;③探索AI编程工具在不同行业中的具体应用,如互联网、金融、游戏等;④掌握AI编程工具的商业模式和盈利空间,为企业决策提供参考。 其他说明:报告基于亿欧智库的专业研究和市场调研,提供了详尽的数据支持和前瞻性洞察。报告不仅适用于技术从业者,也适合企业管理者和政策制定者,帮助他们在技术和商业决策中更好地理解AI编程工具的价值和潜力。
### 创建 Kubernetes PKI 目录结构并传输必要文件 为了在远程服务器 `k8s-master02` 上创建 Kubernetes PKI 目录结构并传输必要的证书和密钥文件,可以按照如下方法操作: #### 使用 SSH 执行命令 可以通过 SSH 远程执行命令来创建所需的目录结构。假设本地机器上有这些证书和密钥文件,并希望将其上传至 `/etc/kubernetes/pki` 路径下。 ```bash ssh user@k8s-master02 'sudo mkdir -p /etc/kubernetes/pki' ``` 这条命令会在目标主机上作为超级用户权限创建指定路径下的所有不存在的父级子目录[^1]。 #### 复制文件到远程服务器 利用 `scp` 工具能够安全地将本地文件拷贝给另一台计算机上的特定位置。这里展示如何把本地的一系列 CA 文件发送过去: ```bash scp ca.crt ca.key apiserver.crt apiserver.key user@k8s-master02:/tmp/ ``` 这会先把这些文件临时放置于对方系统的 `/tmp/` 下面以便后续处理[^4]。 #### 移动文件到最终目的地 再次借助 SSH 来完成最后一步——移动已传送过来的数据到达正确的位置并且设置适当访问控制列表(ACL),确保只有授权进程能读取它们: ```bash ssh user@k8s-master02 ' sudo mv /tmp/ca.* /tmp/apiserver.* /etc/kubernetes/pki/; sudo chown root:root /etc/kubernetes/pki/*; sudo chmod 600 /etc/kubernetes/pki/* ' ``` 上述脚本不仅迁移了文件还调整其所有权以及保护级别以匹配官方推荐做法[^3]。 通过这种方式即可顺利完成整个流程而不需要手动登录远端设备逐一敲入指令。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值