vue qiankun 主应用访问子应用 不显示也不报错

业务背景:原内管平台中子系统越来越多,项目越来越大,打包发布需要十几分钟,本地运行npm run dev都非常容易因为内存不够导致崩溃(虚拟桌面内存就8G),业务打算将渠道管理平台中的一个子系统独立出来,用qiankun改成微前端架构。


介绍 - qiankunhttps://qiankun.umijs.org/zh/guide

遇到的问题:从主应用访问子应用时,控制台不报错,但是页面显示空白。

之前在测试demo中成功搭建过一次,由于过了两周印象不是很深刻,打算再重新搭建一次demo,主应用和子应用各自都可以正常访问,从主应用访问子应用时,发现显示显示一片空白,并且不报错,但是切换路由访问不同菜单,控制台有日志打印(控制台无日志打印见情况②),如下图。

推断main.js、跨域之类的地方应该是没有问题的,肯定是哪个奇怪的地方有问题。

最终对比两套demo反复控制变量尝试,成功发现问题居然出在了容器命名上。

错误原因可能有两种情况:

情况①:主应用中main.js中注册子应用的container容器ID和子应用中本身container容器ID不可相同:

我为了统一方便代码阅读,在主应用和子应用中容器id都定义为contractCenter,没想到这还出了问题。

解决办法:修改子应用中的容器名。

子应用中共有3处需要修改(我将子应用中容器id由contractCenter修改为sub):

修改之后,就可以正常访问了。

另外有些情况下

不显示内容可能是因为路由不一致。比如子应用中首页是根路径

 但是主应用访问子应用的路由为: localhost:8083/#/contractCenter

这里子应用的首页路由应该和主应用中的一致:

 于是将子应用中首页的路由也改为:

 即可正常显示了。

或者

直接在app.vue中加入醒目提示,只要加载成功就显示,不管路由是否一致,方便排查问题:

访问不到首页内容,但是也会显示东西:

情况②:完全没有任何反应。

访问子应用不报错,控制台也无输出,完全没任何反应,这种情况基本就是没匹配到子应用路由。这种情况好像仅会出现在vue2中,并且用的是hash模式,我用别人的vue3demo,没加也没出问题。

先自己检查url是否对应,如果确认是对应一致的,用getActiveRule来匹配hash路由。

const getActiveRule = (hash) => (location) => location.hash.startsWith(hash)

之后就可以正常触发了。

有需要项目Demo源码的,我把之前鼓捣的简易版本翻了出来,各位观众老爷可以参考参考,能跑就行:

GitHub - fyljy574/qiankun-DemoContribute to fyljy574/qiankun-Demo development by creating an account on GitHub.https://github.com/fyljy574/qiankun-Demo

PyTorch AMP(Automatic Mixed Precision)是一种用于深度学习模型训练的加速技术,它可以将低精度的计算操作与高精度的计算操作混合使用,从而在保持模型精度的同时提高训练速度和减少显存占用。具体来说,PyTorch AMP 使用了 NVIDIA Apex 库中的混合精度训练技术,将一些计算操作转换为 FP16(半精度浮点数)格式,从而减少计算和存储的需求。 实现 PyTorch AMP 混合精度训练的步骤如下: 1. 引入必要的库和模块: ```python import torch from torch.cuda.amp import autocast, GradScaler ``` 2. 定义模型和优化器: ```python model = MyModel() optimizer = torch.optim.SGD(model.parameters(), lr=1e-3) ``` 3. 定义混合精度训练相关的参数: ```python scaler = GradScaler() ``` 4. 在训练过程中使用 autocast 和 GradScaler 完成混合精度训练: ```python for data, target in train_loader: # 将数据和目标值转换为合适的类型 data, target = data.to(device), target.to(device) # 使用 autocast 进行前向计算和反向传播 with autocast(): output = model(data) loss = loss_function(output, target) # 使用 GradScaler 进行梯度缩放和反向传播 scaler.scale(loss).backward() scaler.step(optimizer) scaler.update() # 清空梯度 optimizer.zero_grad() ``` 在上面的代码中,autocast 用于自动将一些计算操作转换为 FP16 格式,从而提高训练速度;GradScaler 用于梯度缩放和反向传播,确保在低精度的计算下仍能保持模型精度。 需要注意的是,是所有的计算操作都能够使用 FP16 格式,一些数值较大的计算操作可能会出现溢出等问题。因此,在使用 PyTorch AMP 进行混合精度训练时,需要仔细选择转换的计算操作,并且进行必要的检查和调整。
评论 26
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

风间琉璃c

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值