- 博客(41)
- 收藏
- 关注
原创 使用localStorage的方式存储数据,刷新之后,无用户消息,需要重新登录,,localStorage 与 sessionStorage 的区别
这是因为,尽管你在登录时将用户信息存储到了 localStorage,但在页面重新加载时,信息没有从 localStorage 中取出并恢复到状态管理中。在做完以上3步之后,发现一刷新页面就要重新登录,这是为什么呢?点击提交表单之后会返回一个token值,如图所示。解决方法:在App.vue中加入自动登录的方法。
2025-04-24 17:05:18
429
原创 为什么传图片时图片有FileSource和FileImage两种,为什么又要转为Base64的格式,图片的两种格式[Sting,File]
File 是用户本地上传的临时对象,不能直接展示,必须转为 Base64。图片上传前,靠 Base64 实现立即预览。图片上传后,用服务器返回的 URL 展示正式图。fileSource 和 fileImage 就是为了适配这两个不同的阶段。
2025-04-24 16:14:22
514
原创 VSCode引入HTML代码片段失败
按照上述链接能成功引入,但是添加了Vuter等插件时,改成上面方法会失效,所以为避免插件冲突,最好保存两个代码片段的名称不同,但内容保持一致。此时能成功引入代码片段。
2025-04-20 21:35:36
205
原创 写项目时一些疑惑:组件间的通信、createDownloadUrl和DownloadUrl,ArrayBuffer与Blob等
100vh 代表浏览器视口的 高度,它是动态的,跟随浏览器窗口的大小变化。-41px 是固定值,它代表你想从视口高度中减去的固定像素。那在JavaScript 里要用,因为ref包装了一个响应式值。但是在模板里,Vue 会自动解包.value。
2025-04-17 18:00:24
1061
原创 使用DPlayer和HLS前端封装视频播放
HLS(HTTP Live Streaming)是一种基于 HTTP 协议的流媒体传输协议,最早由苹果公司提出并广泛用于直播和点播视频的传输。因此,需要通过集成 HLS 插件(如 hls.js)来扩展 DPlayer 的功能,使其能够处理和播放基于 HLS 协议的视频流。// 需要在 DPlayer.min.js 前面加载 hls.js (opens new window)。//开启截图,如果开启,视频和视频封面需要允许跨域。//类型:可选值: 'auto', 'hls'等。
2025-04-17 17:34:02
873
原创 对话框类别组件编写
如果验证通过,表单数据 (formData.value) 会被提交到submitRequest 方法。// 控制是否显示关闭按钮(右上角的关闭 X 按钮)。如果设置为 true,submitRequest 方法模拟了一个 API 请求.submitForm 方法会首先进行表单验证。// 引入 Dialog 组件。形如如图所示的对话框的编写。// 父组件宽度的30%// 是否展示对话框。// 是否展示取消框。// 距离顶部的距离。// 需要展示的按钮。
2025-04-17 15:35:50
752
原创 Table类型的表单
如果columns数组对象中有scopedSlots(作用域插槽名称)属性,用来指定插槽名称,则可以在父组件中自定义一个插槽代替如下部分,若无,就按照Table组件中的方式去渲染。**prop:**表示列对应的数据字段,指定从 tableData 中获取哪一列的数据来显示。通过 { index, row } 获取当前行的数据,并可以进行自定义显示。比如说在分享页面中,自定义一个fileName插槽代替如上部分。**label:**表示列的标题,即表头的内容。在父组件中自定义具名插槽。
2025-04-17 14:08:28
313
原创 基本表单的实现即登录注册页面的实现
1.登录页面(opType.value0)2.注册页面(opType.value1)3.注意el-form-item中的prop对应的是rules里面的key值
2025-04-17 12:53:32
388
原创 autod在回收站找回误删文件
在 Linux 系统中,删除的文件默认会进入回收站目录(~/.local/share/Trash),可通过以下命令操作:查看回收站内容。
2025-04-10 21:06:00
263
原创 深度学习:梯度累积
通过在多个小批次上累积梯度,可以模拟更大的批次大小,从而实现更稳定的梯度更新。通过累积多个小批次的梯度,并在累积了一定数量的小批次后进行一次参数更新,梯度累积实现了类似于使用更大批次大小的效果。较大的批次大小使得梯度更新更稳定,从而提高模型训练的稳定性和收敛速度。通过使用梯度累积技术,可以在显存有限的情况下实现更大的有效批次大小,从而充分利用计算资源,提升训练效果。
2025-03-31 16:13:47
486
原创 scope导致css样式无法应用
2.原代码将position: relative设置在code元素上,而按钮定位基准应是外层pre上。3.内联样式和第三方库样式可能覆盖自定义样式,需用!important增强优先级。1.scoped样式导致动态插入元素无法匹配样式,需用:deep()穿透。
2025-02-25 15:23:50
161
原创 前端项目第二天声明式路由|编程式路由以及NavigationDuplicated: Avoided redundant navigation to current location问题
Avoided redundant navigation to current location:错误即router.push() 或 router.replace() 导航到一个当前已经处于的路由时,vuerouter会认为这是冗余的操作,也就是说处于当前页面再次发起路由跳转至当前页面,不再进行处理并抛出错误不会重新渲染组件或执行导航钩子。“vue-router”:引入了promise,promise要求有成功和回调的函数。当重复点击同一个编程式路由跳转时会出现。
2025-01-06 22:02:24
313
原创 前端项目第一天-route|router,v-show|v-if的区别,声明式路由|编程式路由
答:路由跳转传参时候,对象写法可以是name、path形式,但是需要注意的是,path这写法不能结合params参数一起使用,只能传参,不能跳转至想要的页面。比如:配置了具有的时候,占位了(params参数),但是路由跳转的时候就不传递。答:如何指定params参数可传还是不可传,在配置路由的时候,在占位的后面加上一个?(1)路由传递参数(对象写法)path是否可以结合params参数一起使用?(3)params参数可以传递也可以不传递,但是如果传递是空串,如何解决?答:可以,且有三种写法。
2024-12-30 22:23:45
235
原创 terminate called after throwing an instance of ‘std::bad_alloc‘ what(): std::bad_alloc
出现False和None的情况就说明该pytorch与CUDA不匹配。五.torch_scatter下载错误。一、遇见这样的问题首先调试一下。二、下载对应版本的cuda。
2024-08-25 14:01:43
561
原创 数据绑定、el与data的两种写法、事件的基本处理
/这里发this是vue实例,由vue管理的函数一定不要写箭头。// data的第二种写法:函数式(组件时必须要用函数式)// name:'张三'// data的第一种写法:对象式。// name:'张三'二、el与data的两种写法。// data的两种写法。//定义了一个别名按键。// el的两种写法。
2024-08-06 20:15:12
628
原创 vue学习-01天
2.声明式编码,让编码人员无需直接操作DOM,提高开发效率。1.采用组件化模式,提高代码复用率,且让代码更好维护。3.使用虚拟DOM+DIFF算法,尽量复用DOM节点。1.在官网下载vue2.js,一般下载生产版本。二.插值语法和指令语法。一.搭建Vue.js。
2024-08-04 22:00:17
251
原创 Vscode前端插件
选择自己想要的浏览器运行代码:在代码页面鼠标右键选择“Open In Other Browsers"或通过快捷键“Shift+ Alt+ B”在浏览器运行代码。安装完就能在代码页面鼠标右键选择“OpenInDefault Browser”或通过快捷键“Alt+ B”在浏览器运行代码。修改同步/自动闭合/完成提示。
2024-08-01 22:05:25
347
原创 使用 gsutil 下载文件
复现clip-goes-3d中通过GET3D得到渲染图片。一、下载google-cloud-sdk。使用 gsutil 下载文件。
2024-06-04 22:04:12
770
原创 AttributeError: ‘str‘ object has no attribute ‘removeprefix‘
【代码】AttributeError: ‘str‘ object has no attribute ‘removeprefix‘
2024-06-02 21:27:29
444
原创 ImportError: cannot import name ‘is_typeddict‘ from ‘typing_extensions‘ (/root/miniconda3/lib/python
typeguard 依赖于 typing_extensions。确保你安装的 typeguard 版本与 typing_extensions 兼容。
2024-05-26 21:52:45
1289
原创 apex下载--AttributeError: module ‘torch.distributed‘ has no attribute ‘_all_gather_base‘
【代码】apex下载--AttributeError: module ‘torch.distributed‘ has no attribute ‘_all_gather_base‘
2024-05-11 11:17:59
291
3
原创 动态规划法---最大字段和:找出数组连续子序列的最大值---返回数组中最长的递增序列长度
2.动态规划法:用空间换时间----自底向上—dp数组。思路:[3,-4,2,1,6,-5,4]
2024-04-08 21:09:09
694
1
原创 求最小公倍数
3.1 math.gcd()求最小公倍数。3.2 直接利用函数math.lcm()三.利用math库中两个函数。二.利用最小公倍数求。
2024-04-08 11:37:51
212
1
原创 深度学习(吴恩达)---minibatchsize、momentum,RMSprop,Adam---加速神经网络收敛速度
在使用自适应学习率算法(如Adam、RMSprop等)时,mini-batch可以更快地适应不同参数的更新需求,因为这些算法依赖于二阶矩(如梯度的方差)的估计,而mini-batch提供了更加稳定的估计。由图片可以知道,时间越远,历史数据对当前数据的影响越小,这是符合自然规律的,所以,指数加权平均算法能够很好的减弱历史数据的影响。如图所示,当β值越大,曲线会越平滑,波动更小,β值越小,噪声越多,更容易受到异常值的影响,但是它可以更好地适应温度变化。使用加权平均,可以使得曲线光滑。
2024-04-02 21:39:41
2362
3
原创 4D:从当前目录跳转至根目录,再从根目录跳转至指定目录
这里使用了pwd命令来获取当前工作目录的绝对路径,然后通过basename命令提取传入参数的文件名部分。最后,将这两个部分拼接起来,得到完整的文件路径。错误一:无法从当前目录跳转至根目录,再从根目录跳转至指定目录如从whl目录跳转至根目录的snowKITTI目录下。在bash文件中修改。
2024-03-29 10:20:34
242
1
原创 plt用法
plt.rcParams[‘font.sans-serif’] = [‘SimHei’] # 指定使用中文字体。plt.rcParams[‘font.sans-serif’] = [‘SimHei’] # 指定使用中文字体。
2024-03-22 16:39:31
301
1
原创 网络归一化(批量归一化)
依次类推,每当数据发生改变,每一层的神经网络平面图也会发生改变,将两张图重合,以第一层神经网络平面图为例,若不进行归一化处理,w的收敛速度将会降低。若将数据进行归一化处理,会得到以下的图,会加快神经网络的收敛速度。这也是为什么要进行网络归一化的处理。数据归一化就是吧需要处理的数据经过处理后限制在需要的一定范围内,归纳统一样本的统计分布性。2.2.2为了避免每一层的样本分布图类似,换成以下公式。2.1为什么要归一化(个人理解,若有错误,请指正)2.2.1把z归一化为均值为0,方差为1的值。
2024-03-16 16:25:03
311
2
原创 AutoDL与Xftp,XShell的连接
获得如下图所示界面,左边为主机内容,右侧为虚拟机内容,经过拖曳,可以将主机内容复制到虚拟机中。如下所示填写,密码在AutoDL登录指令处获得,最后点击连接。点开AutoDL容器实例,复制登录指令,得如下所图。最后根据提示填写密码,出现这个即为连接成功。点开Xftp,点击添加会话。
2024-03-13 21:55:27
1369
3
原创 深度学习(吴恩达)---过拟合、欠拟合、正则化,随机失活和w的初始化,梯度爆炸和梯度消失
采用随机失活算法(dropout)简化神经网络模型,例如在第三层设置keep.prob=0.8表示该隐藏层有20%个隐藏单元会被抛弃。Z=wx+b,当z过大时,y–>1,当z过小时,y–>-1,此时会出现过拟合。④ 缩放未舍弃的节点(不为0)的值,只有进行缩放后才会保证期望值不变。w在python中随机初始化都服从(0,1)正态分布,假设Xi=1,③ 舍弃A1的一些节点(将它的值变为0或False)(1)将w初始化至合理的值。w=0,则会出现对称现象。w过大会出现梯度爆炸,w过小会出现梯度消失。
2023-12-19 21:54:39
683
1
原创 深度学习(吴恩达)---建立一个深度神经网络
建立一个深度神经网络,需要了解下面两张图(上图是针对单个样本而言的)caches=((cache1,activation_cache1)(cache2,activation_cache2)…)用来存储后向传播需要用到的前向传播运算出来的值parameters用来存储W,b值grads用来存储梯度值dW,dA,db一、初始化参数因为初始化的参数要继续参与更新参数等步骤,所以用一个词典parameters将初始化的W,b值保存起来代码如下:def initialize_parameters_
2023-12-18 22:28:30
1096
数据可视化-点云可视化,open3d
2024-07-06
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人