k8s集群开放防火墙策略

在生产环境部署 k8s 的过程中,基于安全的需要,可能需要开启 firewalld。本文将介绍 firewalld 的使用方式以及 k8s 集群所需开放的端口。

firewalld 的使用

firewalld 是一个防火墙的管理工具,是 iptables 的管理规矩。

firewalld 添加规则的方式主要有两种: 直接添加端口和 rich rule。

直接添加端口

执行以下命令可以直接添加端口:

firewall-cmd  --add-port=80/tcp --permanent ##在 public 区域开放一个端口
firewall-cmd  --add-port=80-8080/tcp --permanent ##在 public 区域开放 80-8080 端口

添加 rich rule

执行以下命令即为添加一条 rich rule 规则:

firewall-cmd --permanent --add-rich-rule='rule family="ipv4" source address="192.168.1.100/24" port port=22 protocol=tcp accept' ##允许 192.168.1.100/24 访问 22  端口
firewall-cmd --permanent --add-rich-rule='rule family="ipv4" source address="0.0.0.0/0" accept' ##此服务器允许所有地址访问
firewall-cmd --permanent --add-rich-rule='rule family="ipv4" source address="0.0.0.0/0" port protocol="tcp" destination address="192.168.1.100" port=80 reject' ##拒绝所有地址访问 80,限制服务器访问 192.168.1.100 的 80 端口
firewall-cmd --permanent --add-rich-rule='rule family="ipv4" destination address="0.0.0.0/0"  accept' ##允许服务器访问所有地址

以上是两种防火墙规则的添加方法,这两种防火墙策略添加方式的主要区别是:是否需要精确的进行网络控制。例如:

firewall-cmd  --add-port=80/tcp --permanent 
firewall-cmd --permanent --add-rich-rule='rule family="ipv4" source address="192.168.1.100/24" port port=80 protocol=tcp accept' 

这两天的本质区别是:第二条 rich rule 限制了 80 端口只能让 192.168.1.100/24 这个网段进行访问。如果直接使用直接使用第一条规则等价于 rich rule 规则为:

firewall-cmd --permanent --add-rich-rule='rule family="ipv4" source address="0.0.0.0/0"  destination address="0.0.0.0/0" port port=80 protocol=tcp accept' 

k8s 需要开放的端口

再聊完如何添加端口后,接下来介绍 k8s 需要开放哪些端口。

以下列表是整理出来一个刚刚搭建完成的 k8s 集群需要开放的端口:

主机类型端口类别端口号
masterkube-apiserver6443
etcd2379-2380
kubelet10250
haproxy16443
workerkubelet10250

执行以下命令进行端口开放:

## master
firewall-cmd --permanent --add-port=2379-2380/tcp
firewall-cmd --permanent --add-port=10250/tcp
firewall-cmd --permanent --add-port=16443/tcp
firewall-cmd --permanent --add-port=6443/tcp
firewall-cmd --add-masquerade --permanent ##允许进行地址进行转换
firewall-cmd --reload

## worker
firewall-cmd --add-masquerade --permanent ##允许进行地址进行转换
firewall-cmd --permanent --add-port=10250/tcp
firewall-cmd --reload

后记

<think>好的,我现在需要帮助用户解决在VLLM 0.4.3中初始化Ray集群的问题。用户提到了initialize_ray_cluster方法,但根据我的知识库,VLLM的官方文档中并没有这个函数。这可能是一个误解,或者用户可能混淆了相关的配置步骤。 首先,我需要确认VLLM与Ray的关系。VLLM确实使用Ray来管理分布式推理环境,尤其是在多GPU或多节点的情况下。通常,用户需要先启动Ray集群,然后再初始化VLLM的LLM实例。正确的步骤应该是先设置Ray,而不是直接调用一个不存在的initialize_ray_cluster方法。 接下来,我应该检查用户提到的版本,VLLM 0.4.3。在这个版本中,Ray的集成方式可能有所不同,但根据引用内容,初始化Ray集群通常是通过ray.init()来完成的,而不是VLLM内部的方法。因此,用户可能需要先正确配置Ray的环境变量,比如指定地址、节点IP等,然后启动Ray集群,再运行VLLM。 另外,用户可能希望了解如何配置多节点或多GPU的环境。这时候,需要分步骤说明如何在每个节点上启动Ray,然后连接它们形成一个集群。例如,在头节点上运行ray start --head,然后在工作节点上使用ray start --address=<head-node-ip>:6379,最后在代码中连接这个集群。 同时,需要注意VLLM在初始化LLM实例时,可以通过参数指定tensor_parallel_workers来设置使用的GPU数量,这需要Ray集群已经正确配置了这些资源。如果用户没有正确启动Ray集群,这部分可能会报错。 可能的误区是用户认为VLLM有一个内置的方法来初始化Ray集群,但实际上这是Ray本身的功能。因此,需要明确区分Ray的初始化和VLLM的初始化步骤,并给出具体的代码示例,比如如何启动Ray,然后创建LLM实例。 最后,需要验证这些步骤是否适用于VLLM 0.4.3版本,并提醒用户注意版本兼容性,以及参考官方文档的重要性。如果用户遇到问题,可能需要检查Ray的版本是否与VLLM兼容,或者查看错误日志进行调试。</think>在vLLM 0.4.3中初始化Ray集群主要通过Ray原生命令实现,vLLM本身不直接提供`initialize_ray_cluster`方法。以下是具体操作步骤: 1. **单节点初始化**(适用于单机多GPU) ```python import ray ray.init(num_gpus=4) # 根据实际GPU数量调整 from vllm import LLM llm = LLM(model="facebook/opt-125m", tensor_parallel_size=4) ``` 2. **多节点集群初始化** - 头节点执行: ```bash ray start --head --port=6379 --num-gpus=8 ``` - 工作节点执行: ```bash ray start --address=<head-node-ip>:6379 --num-gpus=8 ``` - Python代码中连接: ```python import ray ray.init(address="auto") llm = LLM(model="facebook/opt-125m", tensor_parallel_size=16) ``` **注意要点**: - 必须保证所有节点使用相同版本的Ray和vLLM - 节点间需开放6379端口通信 - GPU数量通过`tensor_parallel_size`参数配置[^1]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

启明真纳

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值