cent 安装openvswitch

本文提供了一步到位的CloudStack部署指南,包括安装OpenVSwitch的详细步骤,适合CentOS最小版环境。操作流程清晰,确保安装过程顺利进行。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


部署cloudstack时需要openvswitch,安装方法:

下载openvswitch源码,找个最新的版本下载

http://openvswitch.org/releases/

准备系统环境,百度说正常安装环境只需要几个软件包,由于我的系统是cent 的最小版,没有任何编译工具和库文件,

怕发生其他情况直接安装软件组:

yum groupinstall 'Development'
yum groupinstall 'Development Toils'
准备一个编译文件夹

mkdir -p /root/rmpbuild/SOURCES
为了减少麻烦直接使用root用户。

将源码包放在SOURCES目录中,解压缩

tar -zxvf  xxx.tar.gz

下面是重点,原来按了好几遍没安装成功在这!

从spec文件中删除openvswitch-kmod的依赖包,并创建一个新的spec文件
编辑
vim rhel/openvswitch.spec
<span style="color: rgb(51, 51, 51); font-family: tahoma, 宋体; font-size: 14px; line-height: 22.3999996185303px; text-align: justify; background-color: rgb(250, 250, 252);">将文件中openvswitch-kmod, 这几个字删除</span>
进入SOURCES目录,编译RPM包

rpmbuild -bb --without check ./rhel/openvswitch_no_kmod.spec
然后进入/root/rpmbuild/RPMS 安装编译好的RPM文件

yum localinstall ./openvswitch-2.3.0-1.x86_64.rpm
service openvseitch start 

看到一串OK就证明安装成功:)







### 安装 Apache Spark 最新版本于 CentOS #### 准备工作 为了确保顺利安装最新版的 Apache Spark,在开始之前需确认已准备好如下条件: - 已经成功部署并运行 Hadoop 版本 3.3.5 或以上,因为 Spark 可能依赖 HDFS 提供的数据存储服务[^4]。 #### 下载 Spark 安装包 通过访问阿里云提供的开源镜像站点获取最新的 Spark 发行版。对于当前情况而言,可以执行以下命令来下载指定版本的 Spark 压缩文件: ```bash wget https://mirrors.aliyun.com/apache/spark/spark-3.4.4/spark-3.4.4-bin-hadoop3.tgz ``` #### 解压缩 Spark 文件夹 利用 tar 工具解开刚才下载下来的 .tgz 归档文件至目标路径下: ```bash tar zxvf spark-3.4.4-bin-hadoop3.tgz -C /usr/local/ ``` 这一步骤会创建一个新的目录 `/usr/local/spark-3.4.4-bin-hadoop3` 来容纳解压后的所有资源[^3]。 #### 设置环境变量 编辑 `~/.bashrc` 文件以永久性地向系统的 PATH 中加入 Spark 的 bin 和 sbin 路径,从而允许全局调用 Spark CLI 工具集。添加下面两行到 `.bashrc` 文件末尾处: ```bash export SPARK_HOME=/usr/local/spark-3.4.4-bin-hadoop3 export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin ``` 使更改立即生效可输入 source ~/.bashrc[^1]。 #### 修改配置文件 进入刚刚设置好的 `$SPARK_HOME/conf/` 目录内复制模板文件作为实际使用的配置文档基础,并对其进行必要的调整以便适应集群的具体需求。特别是要关注以下几个方面: - **spark-env.sh**: 此脚本用于定义一些重要的环境参数比如 JAVA_HOME, PYSPARK_PYTHON 等等; - **slaves**: 列举出所有的 worker node 主机名或 IP 地址; 完成上述操作之后记得保存所做的修改。 #### 同步配置给其他节点 一旦本地机器上的准备工作全部就绪,则应该把整个 Spark 安装目录同步发送到每一个参与计算过程的工作节点上去。可以通过 scp 或者 rsync 实现这一点。例如采用 rsync 方式的话可以用这条指令来进行传输: ```bash rsync -avzh /usr/local/spark-3.4.4-bin-hadoop3 user@worker-node:/usr/local/ ``` 其中 `user` 是远程用户的名称而 `worker-node` 表示具体的目标主机地址。 #### 初始化与验证 最后一步就是启动 Spark 集群了。切换回 master server 并发出下列命令开启 Master 和 Worker 进程: ```bash start-all.sh ``` 此时应当能够看到各个组件正常工作的日志输出信息。另外还可以尝试提交一个小规模的任务测试一下整体架构是否搭建正确无误。比如使用 spark-shell 执行一段简单的 WordCount 示例程序: ```scala sc.textFile("hdfs://localhost:9000/words.txt").flatMap(_.split(" ")).map((_, 1)).reduceByKey(_ + _).collect() ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值