【跨代码仓库合并方案】

文章描述了一种解决Wiser和ELKO两套相似代码同步问题的方法。通过在Elko项目中添加Wiser的远程仓库,拉取并合并修改,从而避免手动复制和测试风险。此方法适用于差异小的项目,需要注意解决合并冲突和管理远程别名。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、背景:
1、wiser绑定的uiidA的定制修改内容和ELKO绑定的uiidB基本是一样的,需要手动粘贴同步,增加测试保障风险,还会浪费开发资源投入;

2、施耐德wiser和elko面板两套面板基本一致,但是经过new art升级后,各自已经出现一些私有的内容(如长期迭代下来导致的定制差异、开发者差异引入的实现差异等等);

3、可以用这俩项目试一下:000001s0t7 / 000001rbys

2、解决预期:
1、项目A、B两套相似的代码分别置于仓库A、B,希望通过修改一套代码A,同时完成仓库A、B的内容更新,且能够正确的将修改内容合并到提交树HEAD中;

3、执行步骤梳理:(wiser uiid1和elko UIID2 ,从wiser uiid1上改,在elko上合并wiser的修改)
1、分别拉取代码wiser和elko:

2、wiser项目中完成需求并提交内容;

3、在elko项目终端中执行:

a.添加wiser的remote地址到elko项目中:

    git remote add wiser ssh://git@xxx/uiid1 (wiser 是添加到git config中的别名);

b.拉取最新的wiser代码到elko项目中:

    git fetch wiser;

c.基于wiser/develop分支检出一个temp分支到elko项目中:

    git checkout -b temp wiser/develop

d.切回到elko项目的最新分支(develop);

e.执行夸仓库合并命令:(允许跨仓库合并:--allow-unrelated-histories )

    git merge --no-ff temp --allow-unrelated-histories

f.解决冲突后提交,elko面板同步wiser需求内容完成;

4、特别注意:

a.适用差异较小的两个面板,否则合并的时候冲突会很多;

b.git配置不会被提交,clone的时候,需要重新添加remote地址;

c.本地媒介分支及时清除,不要提交到仓库里面;

d.命令较长,可以结合.gitconfig的alias 一起使用:

   open ~/.gitconfig

   [alias] 里面贴入如下内容:(没有alias在问价下面加一下)

d.执行一下:source ~/.bash.profile 就好了(不行的话再重启下IDE);

e.执行:

    git auh1 ssh://git@xxx/uiid1 (把wiser的仓库地址贴过来)

    git auh2

    git auh3

    git auh4         (不是develop的话全称切一下)

    git auh5           


auh1 = remote add wiser  
auh2 = fetch wiser
auh3 = checkout -b temp wiser/develop
auh4 = checkout develop
auh5 = git merge --no-ff temp --allow-unrelated-histories

在这里插入图片描述

内容概要:本文档详细介绍了在三台CentOS 7服务器(IP地址分别为192.168.0.157、192.168.0.158和192.168.0.159)上安装和配置Hadoop、Flink及其他大数据组件(如Hive、MySQL、Sqoop、Kafka、Zookeeper、HBase、Spark、Scala)的具体步骤。首先,文档说明了环境准备,包括配置主机名映射、SSH免密登录、JDK安装等。接着,详细描述了Hadoop集群的安装配置,包括SSH免密登录、JDK配置、Hadoop环境变量设置、HDFS和YARN配置文件修改、集群启动与测试。随后,依次介绍了MySQL、Hive、Sqoop、Kafka、Zookeeper、HBase、Spark、Scala和Flink的安装配置过程,包括解压、环境变量配置、配置文件修改、服务启动等关键步骤。最后,文档提供了每个组件的基本测试方法,确保安装成功。 适合人群:具备一定Linux基础和大数据组件基础知识的运维人员、大数据开发工程师以及系统管理员。 使用场景及目标:①为大数据平台搭建提供详细的安装指南,确保各组件能够顺利安装和配置;②帮助技术人员快速掌握Hadoop、Flink等大数据组件的安装与配置,提升工作效率;③适用于企业级大数据平台的搭建与维护,确保集群稳定运行。 其他说明:本文档不仅提供了详细的安装步骤,还涵盖了常见的配置项解释和故障排查建议。建议读者在安装过程中仔细阅读每一步骤,并根据实际情况调整配置参数。此外,文档中的命令和配置文件路径均为示例,实际操作时需根据具体环境进行适当修改。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值