- 博客(31)
- 资源 (9)
- 收藏
- 关注
原创 evpn实现vxlan分布式网关部署
实验目标:1、pc1在bd 10,pc2在bd 20,地址如图2、希望通过分布式vxlan网关+evpn自动隧道,实现pc1和pc2的连通性实验规划:1、pc1和pc2属于ip vpn实例zhynet,L3 vni为1232、bd 10的vni为1003、bd 20的vni为2004、所有vpn实例的rd/irt/ert为100:1。
2024-10-09 22:05:20
1273
2
原创 VxLan2静态隧道配置
实验背景:PC1和PC2,在物理网络中处于两个不同的三层子网LSW1、LSW2和LSW3不支持VxLAN,CE1和CE2支持VxIAN实验需求:1、如图,PC1和PC2,从underlay网络看,处于不同的广播域2、通过配置VxLAN静态隧道,实现PC1和PC2在overlay网络上在同一广播域,可以互相通信3、PC1和PC2在VLAN 10,BD10,分配VNI100注意:使用CE时,需要开启硬件虚拟化。
2024-10-08 21:42:18
1200
原创 实现高可靠网络
是其没出现问题的情况下vlan10走左边,vlan20走右边,实现分流。一旦任何一方出现问题,都可以自动更换线路。目标:1、LsW1作为 vlan 10的主网关和根桥,LSW2作为 vlan 20的主网关和根桥AR1、AR2、实现双出口双链路上连,可互为备份3、v1an 10用户正常情况使用左迈线路访问互联网,vlan 20用户正常情况使用右边线路访间互联网。
2024-09-27 16:07:25
1147
原创 eNSP的40错误,历时四天终于发现问题了(根本原因CSGO完美竞技平台)
二、考虑到版本是否兼容的问题,我又下载了一系列虚拟机Oracle VM VirtualBox的版本5.2.28、5.2.44等,由于我是一位CSGO游戏的爱好者,至此,卸载完美平台,解决40问题。希望大家能够传下去,不要像我一样白白浪费了很多时间!一、我把eNSP的解决文档,从头排查了一遍。三、在不懈的搜索下,找到了这篇文章。,下载链接,大家可参考。
2024-08-06 21:33:17
897
2
原创 ChatGPT与文心一言的差距不仅亿点点
ChatGPT与文心一言的差距不仅亿点点,通过比较可以发现,ChatGPT给你的答案更加条理清晰,并且给出的理由很充分,结果也是正确的,然后文心一言,首先,结果是错误的,而且给出的理由比较少也不分条,这个结果的发现,是我在搜寻矩阵论的题解发现的,仅通过一道题,可能是比较片面的,但由此可发现国内的大语言模型还是有很长的一段路要走!文心一言不如ChatGPT对同一问题(矩阵论)的求解。下图为ChatGPT3.5的回答。下图为文心一言的回答。
2024-01-07 17:36:07
842
原创 GRU4Rec学习笔记(SESSION-BASED RECOMMENDATIONS WITHRECURRENT NEURAL NETWORKS)
主要是对RNN的一个改进,针对RNN在用到推荐系统时,会面临会话时间短的问题,而不是长期会话,导致精度不准,为了解决这个问题,作者通过对整个会话进行建模。模型的输入是当前会话的状态,输出是会话中下一个事件的物品,为了稳定性对输入向量进行了归一化,在输入和第一层GRU之间新增嵌入层,在最后一层和输出之间新增前馈层(Feedforward layers 也称全连接层或密集层)。因为推荐系统不是递归神经网络的主要应用领域,因此修改了基本网络,为了更好的适应任务。
2023-11-30 22:10:54
1968
原创 onehot-wordEmbedding-graphEmbedding
1、 One-hot encoding2、Why shouldthere be word embeddings?3、What is word embedding?1. What is an embedding matrix?2. Why do you need to set the number of dimensions3.Advantages compared to one-hot encoding4. What are word2vec and GLove?
2023-11-06 21:58:26
191
原创 优化器(凸性、梯度、动量、Adagrad、RMSProp及Adam优化)
优化器(Optimizer)是机器学习和深度学习中的一个重要组件,用于调整模型参数以最小化(或最大化)损失函数。优化器的主要目标是通过更新模型的参数,使损失函数的值最小化。它是训练模型的关键组成部分,帮助模型逐渐收敛到最佳参数配置,以提高模型的性能。1、深度学习模型大多是非凸2、小批量随机梯度下降是最常用的优化算法3、冲量对梯度做平滑4、Adam对梯度做平滑,且对梯度各个维度值做重产整。
2023-10-27 09:41:08
735
原创 图卷积神经网络GCN与图神经网络GNN
GCN既可以进行直推式学习也可以进行归纳式学习,而传统的比如基于随机游走的方法、基于矩阵分解的方法、标签传播的只能进行直推式,但是直推式的缺点显而易见,直推式无法泛化到新结点,需要重新采样随机游走序列,优化更新所有节点的嵌入向量。然而归纳式学习可以泛化到新节点,也可进行迁移式学习,如GAT、GIN等图神经网络方法(通过计算图的范式,得到结构上的相似,比如,地理上的远隔)。
2023-10-23 09:13:07
16910
7
原创 Neural Graph Collaborative Filtering学习笔记
这篇论文的研究背景是在现代推荐系统中,学习用户和物品的向量表示(也称为嵌入)是核心问题。现有的方法通常通过将用户(或物品)的嵌入映射到描述用户(或物品)的预先存在的特征,如ID和属性,来获得用户(或物品)的嵌入。然而,这种方法的固有缺点是没有将用户-物品交互中潜在的协同信号(相似性的评分)编码到嵌入过程中。因此,所得到的嵌入可能不足以捕捉协同过滤效应。为了解决这个问题,论文提出了一种新的推荐框架Neural Graph Collaborative Filtering (NGCF),它将用户-物品交互的双分图
2023-09-25 12:22:41
209
原创 RecAgent:A Novel Simulation Paradigm for Recommender Systems学习笔记
RecAgent:A Novel Simulation Paradigm for Recommender Systems学习笔记一、研究背景二、相关知识1、RecAgent的可视化界面2、RecAgent的总体框架三、与其它模拟器的区别四、潜在的机会五、总结与展望
2023-09-19 10:17:54
898
1
原创 CSGO某主流交易平台buff自动化根据需求买饰品
CSGO某主流交易平台buff自动化根据需求买饰品(如有不妥,立即删除),本人只学习分享
2023-08-31 22:19:19
1258
2
原创 Neural Collaborative Filtering (NCF)论文学习笔记及代码实现
Neural Collaborative Filtering (NCF)论文学习笔记及代码实现一、研究背景二、相关知识1、GFM(广义矩阵分解)模型:2、One-hot编码3、embedding层4、哈达马积5、MLP(多层感知机)模型:6、激活函数ReLU7、NeuMF模型:三、研究方法1、留白评估法2、数据集划分3、数据集介绍四、实现结果(论文详细结果可看原文)1、Top-K项目推荐五、本人代码运行结果1、GMF2、MLP3、NeuMF
2023-07-18 21:44:22
2670
3
原创 BPR(Bayesian Personalized Ranking)算法(2)
一、剩余BPR算法的优化二、算法流程三、BPR算法的实现代码(python)四、性能指标的补充MAP、MRR、Precision、Recall、F1 score、1-Call和NDCG
2023-07-10 15:10:22
629
1
原创 BPR(Bayesian Personalized Ranking)算法(1)
一、贝叶斯(Bayesian)1.1故事背景1.2一句话解释1.3基本概念1.4概率:1.5世界观的区别:1.6贝叶斯公式1.7先验概率1.8符号1.9朴素贝叶斯二、BPR算法使用背景三、显示反馈与隐式反馈2.1 显式反馈与隐式反馈基本概念2.2 显式反馈与隐式反馈的比较四、定义五、BPR-OPT六、sigmoid函数6.1什么是sigmoid函数6.2什么是梯度消失七、什么是AUC参考文献
2023-05-10 11:17:41
1506
1
原创 协同过滤算法
一、什么是协同过滤算法二、相似度的计算2.1杰卡德(Jaccard)相似度2.2余弦相似度(Cosine Similarity)2.3皮尔逊相关系数(Pearson Correlation Coefficient)2.4欧氏距离(Euclidean Distance)2.5对比欧氏距离和余弦相似度三、基于用户(user)的协同过滤四、基于物品(item)的协同过滤五、UserCF和ItemCF的对比5.1区别5.2共同缺点
2023-04-25 11:17:27
11616
原创 过拟合和欠拟合问题(正则项)
欠拟合: 训练集的预测值,与训练集的真实值有不少的误差,称之为欠拟合。过拟合: 训练集的预测值,完全贴合训练集的真实值,称之为过拟合。
2023-04-25 10:46:09
103
原创 基于矩阵分解的推荐算法
一、什么是推荐算法二、学习矩阵分解之前,先了解一下协同过滤2.1 什么是协同过滤2.2 协同过滤存在的问题三、矩阵分解3.1什么是矩阵分解3.2这里主要介绍BasicSVD算法3.3实际应用3.4代码实现四、总结分析矩阵分解的优缺点
2023-04-25 10:44:55
2111
原创 鸢尾花一元线性回归的进一步完善:1.用到训练集和测试集2.评估指标采用MSE和RMSE,针对三种梯度下降方法进行对比分析。
鸢尾花一元线性回归的进一步完善:1.要用到训练集和测试集2.评估指标采用MSE和RMSE,针对三种梯度下降方法进行对比分析,及代码实现。一、什么是MSE和RMSE二、代码示例总结
2023-04-15 13:12:05
1582
原创 鸢尾花数据集使用三种梯度下降MGD、BGD与MBGD
一、鸢尾花数据集是什么?二、使用python获取鸢尾花数据集1.数据集的获取及展示2.数据可视化及获得一元线性回归3.数据集的划分三、鸢尾花数据集使用三种梯度下降MGD、BGD与MBGD四、什么是数据集(测试集,训练集和验证集)
2023-04-09 15:16:58
885
原创 梯度下降及一元线性回归[python代码](二)
梯度下降及一元线性回归[python代码](二)AI人工智能入门之梯度下降及一元线性回归(2)一、线性回归是什么?二、线性回归的应用三、线性回归的一般形式四、一元线性回归函数的推导过程五、相关代码(python)梯度下降:关于广告和汽车的一元线性回归:同理关于身高和体重的(原理与上个相同):六、过拟合和欠拟合问题
2023-04-07 11:44:14
482
原创 梯度下降及一元线性回归[python代码](一)
AI人工智能入门之梯度下降及一元线性回归{python代码}(1),随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。梯度下降是迭代法的一种,可以用于求解最小二乘问题(线性和非线性都可以)。在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent,可简称GD)是最常采用的方法之一,另一种常用的方法是最小二乘法。梯度下降法是一个最优化算法,常用于机器学习和人工智能当中用来递归性地逼近最小偏差模型。
2023-04-05 15:48:05
438
1
原创 顺序表的基本操作(完整代码)实验
顺序表的基本操作(完整代码),实验运行的软件为Dev-C++,包括顺序表的创建,添加数据,指定位置插入数据,指定位置删除数据,排序等操作
2022-08-15 01:31:25
3824
原创 某高校校园网的规划与设计(课程设计)
设计规划校园网拓扑图,配置路由器和交换机,运用了单区域OSPF,链路聚合技术等,使用工具,交换机,eNSP。
2022-06-05 16:00:27
52186
93
原创 宾馆客房管理系统Mysql数据库课程设计
简单的宾馆客房管理系统的数据库结构,设置了触发器,内外键等,相关代码,MySQL文件可直接导入,以及课设论文,已上传,仅供参考。
2021-12-31 13:36:37
157666
41
NCF数据集和python代码实现
2023-07-18
梯度下降及一元线性回归(一){AI人工智能入门之梯度下降及一元线性回归(1)}中例题代码源文件(python)
2023-04-05
RSA算法原理与实现合集.rar
2021-12-18
RSA算法原理与实现课程设计.docx
2021-12-18
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人