Cilium Endpoint 和 Kubernetes 的 Endpoint


Cilium Endpoint 和 Kubernetes 的 Endpoint 虽然名称相似,但 本质、作用和关联性都不同,理解它们的差异和联系对于掌握 Kubernetes 网络与 Cilium 网络插件的原理非常关键。


🧩 一、Cilium Endpoint 是什么?

🔹定义:

Cilium Endpoint(简称 CEP) 是 Cilium 网络插件(基于 eBPF)为 Kubernetes 中的每个 Pod 创建的一个独立对象,表示该 Pod 的网络身份和策略状态

🔹作用:

  • 记录该 Pod 的 IP、MAC、所属 namespace、所属 Identity(安全标识符)、所应用的网络策略(如 CiliumPolicy)等。
  • 是实现 透明 L3/L4/L7 网络策略控制、流量可视化、安全审计 的基础。
  • 每个 CEP 对应一个 Pod 的网络接口,配合 eBPF 程序注入 datapath。

🔹示例:

kubectl get ciliumeps -n default

输出类似:

NAME              ENDPOINT ID   IDENTITY ID   STATE     IPV4           POD NAME
nginx-7c57c65d5d   12345         10078         ready     10.0.0.23      nginx

🧩 二、Kubernetes Endpoint 是什么?

🔹定义:

Kubernetes 的 Endpoint(或 EndpointSlice) 是 kube-apiserver 中的资源对象,用于记录某个 Service 关联的 Pod IP 地址列表(即后端实例)

🔹作用:

  • 支撑 kube-proxy 或 Cilium 进行 Service 负载均衡(ClusterIP / NodePort / LoadBalancer)。
  • 映射 Service -> Pod 的真实网络地址,供客户端访问。

🔹示例:

kubectl get endpoints nginx

输出类似:

Name: nginx
Subsets:
  Addresses: 10.0.0.23, 10.0.0.24
  Ports: 80/TCP

🔗 三、两者的区别与联系

对比项Cilium Endpoint(CEP)Kubernetes Endpoint
所属组件Cilium CNI 网络插件Kubernetes 核心 API
对象粒度Pod 网络身份(每个 Pod 一个 CEP)Service 后端 Pod 列表(多个 Pod 可共享)
数据内容IP、MAC、身份、策略状态等IP:Port 列表,供 Service 使用
作用范围eBPF 数据面、策略决策、身份审计Service 负载均衡、DNS 解析
创建机制Cilium 自动为每个 Pod 创建 CEP 对象kube-controller-manager 生成或同步
是否 Service 相关无直接关系,作用于 Pod 网络层与 Service 直接关联

🔗 关联:

  • Cilium Endpoint 记录 Pod 的网络信息,而 Kubernetes Endpoint 可能引用这些 Pod 的 IP 地址
  • 在使用 Cilium 时,Service 的负载均衡也可能绕过传统 kube-proxy,直接由 Cilium 的 eBPF 实现 L4 代理逻辑,这时会从 EndpointSlice 读取后端 IP,匹配 Cilium Endpoint 来做智能路由与策略决策。

🎯 四、实际应用场景理解

  1. 你想控制 nginx Pod 的入站访问?

    • ➤ 配置 CiliumNetworkPolicy,作用对象是 Cilium Endpoint(如 nginx-abc123)。
  2. 你想让前端访问 nginx Service?

    • ➤ Kubernetes Endpoint 提供了 nginx Pod 的 IP 地址,Cilium 使用它们实现负载均衡。
  3. 你需要进行网络审计与监控?

    • ➤ Cilium Endpoint 提供了详细的指标和连接跟踪能力(结合 Hubble)。

📌 总结一句话

Cilium Endpoint 是 Pod 的网络身份与策略状态载体,K8s Endpoint 是 Service 的后端 Pod 地址列表,两者共同构成了 Cilium 网络模型中的控制面与数据面的核心。

如果你需要进一步理解 Cilium 如何将 EndpointSlice 与 CEP 结合用于负载均衡与策略应用,我可以帮你画一张流量流程图,是否需要?

实现 透明 L3/L4/L7 网络策略 为什么没有其他几层呢

这是一个非常好的问题 —— 为什么 Cilium 网络策略支持 L3/L4/L7(网络层、传输层、应用层),但似乎没有提到其他 OSI 模型中的层(如 L2 数据链路层,L5-会话层,L6-表示层)?


🔍 一、Cilium 为什么强调 L3/L4/L7 策略?

因为这三层是最直接影响“网络流量行为和访问控制”的关键层级

层级名称Cilium 中的应用场景
L3网络层(IP)控制谁(哪个 IP/Pod)能访问我
L4传输层(TCP/UDP)控制哪个端口/协议可以访问我
L7应用层(HTTP等)控制 HTTP 方法、路径、主机等

示例:

apiVersion: "cilium.io/v2"
kind: CiliumNetworkPolicy
spec:
  endpointSelector:
    matchLabels:
      app: nginx
  ingress:
  - toPorts:
    - ports:
      - port: "80"
        protocol: TCP
      rules:
        http:
        - method: GET
          path: "/api/v1/status"

这个策略就跨越了 L3(选择 Pod)、L4(端口 80)、L7(HTTP GET + 路径)。


🤔 二、那其他层(L2、L5、L6)为什么不常用于策略控制?

层级名称在网络策略中的作用(或为什么不被常用)
L2数据链路层(MAC)Cilium 是 IP 层网络插件,Pod 间通信靠 IP,不依赖 MAC;L2 一般用于裸机/局域网,不利于跨主机策略控制。
L5会话层(状态管理)OSI 模型理论层,实际应用很少独立控制;TCP 本身已具备会话管理。
L6表示层(加密/编码)这是应用协议层内部的事情(如 TLS、JSON),策略控制无法有效解析或干预。
L1物理层网络插件无法感知物理层(如光纤、电信号),与 Pod 无关。

📘 三、为什么 eBPF 和 Cilium 特别适合做 L7 控制?

传统网络插件(如 Calico、Flannel)通常只能做到 L3/L4 控制,因为它们基于 iptables 或内核 Netfilter。
但 Cilium 用的是 eBPF,可以嵌入到内核协议栈的不同 hook 点,实现:

  • 在 Socket 创建时插入代码(控制连接建立)
  • 在 HTTP、gRPC 等协议数据面进行深度解析(L7-aware)
  • 无需 sidecar 代理就能识别请求路径、主机头、方法等

这也是 Cilium 最大的技术优势之一。


🎯 总结一句话:

Cilium 之所以聚焦在 L3/L4/L7,是因为这三层最能代表“谁访问谁、通过什么协议、以何种方式”,而其他层在容器网络策略场景中不具备直接的控制意义或技术可行性。

如果你希望了解 eBPF 是如何实现在 L7 解析 HTTP/gRPC 的,我也可以帮你进一步拆解 datapath 或加载点流程图。是否需要?

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值