- 博客(46)
- 收藏
- 关注
原创 高版本jdk下的JNDI注入
**摘要:**本文分析了JNDI注入攻击原理,特别针对高版本JDK环境。当客户端通过lookup方法从恶意RMI服务器获取资源引用时,若服务器返回包含远程代码库的Reference对象,客户端将自动加载并执行恶意类字节码(如EvilClass.class)。文章详细描述了RMI客户端与服务端的交互流程,并对比了JDK8u66和JDK17中不同的类加载调用链,指出只要lookup参数可控就存在JNDI注入风险。
2025-11-05 04:20:54
985
原创 Java RASP
Java RASP是一种运行时应用自保护技术,通过在应用运行时嵌入安全防护机制,实现对应用行为的实时监控和攻击防护。其核心功能包括应用内嵌、实时监控、上下文感知、行为分析和实时响应。在Java平台中,主要通过Java Agent和Instrumentation API实现,利用字节码操作技术(如ASM、Javassist)在关键API调用处插入检测逻辑。文章还通过示例演示了如何编译和解析Java类文件,展示了类结构和字节码信息,为理解RASP底层实现提供了技术基础。
2025-07-15 09:00:00
1062
原创 codeql自定义ql(java)
使用codeql自定义ql规则集,前面部分基本都照搬官方文档,算是笔记,可以重点关注全局污点跟踪,然后根据文章最后面的Sql原生注入示例自行去编写规则集即可
2025-07-02 19:33:16
866
原创 Note 12 R pro (MIUI 14.0.10) magisk方式 获取root教程
因为在MUMU模拟器进行一些测试时有时会出现一些奇奇怪怪的问题,甚至模拟器崩溃,因此想着刷一个拥有root的真机以便后续的测试
2025-03-07 18:14:25
977
2
原创 无线局域网技术分析及攻击实战
这篇文章是我的课设的初稿内容,所以格式可能会稍微那啥一点(自行脑补)。本篇文章在前面部分针对WEP、WPA/WPA2/WPA3、WAPI进行分析,包含了相当部分的连接和加密过程图片,尽量做到详细,后面部分则对WEP、WPA2进行攻防实战,同时包含了一些无线DOS攻击。.........
2022-06-11 07:17:17
6662
原创 docker配置管理
docker是一个可以用着很丝滑的服务,它可以让你很方便地将你的应用单独部署在一个docker镜像,这些镜像并非没有任何交流,相反,它们像是不通的实体机在互相交流,docker好比virtualbox,其运行的镜像好比virtualbox上运行的虚拟机,但前者更轻量。对于docker镜像中应该运行什么样的应用,现在似乎是更习惯于用go语言去实现docker镜像中的应用,因为据说使用go语言实现的应用更轻量,感兴趣的小伙伴可以去查一查。
2022-01-11 17:50:14
599
原创 nginx配置管理
相比使用包管理工具直接安装nginx,在学习过程中使用源码安装并搭配文档会加深理解,本文为使用源码安装nginx的配置笔记,以供参考。
2022-01-09 11:07:33
4293
原创 pytorch创建模型并训练(初探文本分类问题)
本博客对pytorch在深度学习上的使用进行了介绍,本博客并不会对怎么训练一个好的模型进行介绍(其实我也不会),我觉得训练一个好的模型首先得选对一个模型(关键的问题在于模型如何设计),然后再经历一遍玄学调参,大概就能得到一个比较好的模型了。我仍只有半只脚在机器学习的门内(深度学习我觉得其实就是机器学习的延伸),大佬避过。一、创建模型 其实现在有很多关于机器学习的库(python 的 Keras、caffe,matlab也有一个深度学习库,好像叫DeepLearning toolbox),而
2021-07-07 11:07:34
1374
原创 使用Ubuntu安装配置DNS和DHCP
描述:使用一台装有Ubuntu 20.0.4 desktop版本的主机和一台装有Windows 10的主机进行实验,其中装有Ubuntu的主机作为DNS和DHCP服务器。 bind9可作为DNS服务器,它的主配置文件为/etc/bind/named.conf,其内部包含了其他配置文件:named.conf.options:指定数据文件目录,指定转发DNS服务器ip地址等。named.conf.local:创建正向查找区域和反向查找区域。named.conf.default-zone
2021-05-03 18:55:53
1982
1
原创 Adaptive Tensor Learning with Tensor Networks(基于张量网络的自适应学习)
基于张量网络的自适应学习Adaptive Tensor Learning with Tensor Networks不同于CP、TT、TR、Tucker分解的分解模型
2021-04-04 19:06:01
688
原创 基于张量网络的机器学习(八)
现在让我们先解决一下上一次博客中提出的问题:什么是纠缠熵面积定律?时间演化是什么?时间演化顾名思义就是指随着时间的变化状态发生了改变,在量子力学上就是物理状态和观测量随时间的变化,再具体点就是态矢随时间的演化,由此还能引入时间演化算符的概念,就我所知,时间演化算符与薛定谔方程有着一定的联系,暂时了解这么多。...
2021-03-04 01:25:51
572
原创 基于张量网络的机器学习(九)
2021寒假学习 基于张量网络的机器学习(九)一.理论学习1.机器学习2.神经网络2.1 人工神经网络(ANN)2.1.1 构成2.1.2 神经元2.1.3 多层神经元网络2.1.4 学习方法2.1.4.1 反向传播算法2.1.5 种类2.1.6 容量2.2 卷积神经网络(CNN)2.2.1 全连接神经网络2.2.2 构建2.2.2.1 卷积层2.2.2.2 池化层2.2.3 特性2.3 深度神经网络(DNN)3.深度学习二.代码学习三.一些疑问一.理论学习1.机器学习 机器学习是一门人工智能的
2021-03-04 01:21:22
918
原创 Windows10与Ubuntu双系统安装记录
一直很想装Windows10与Ubuntu双系统,但是不断失败,终于,昨天成功安装好了双系统,现在记录一下碰到的问题以及解决方式。番外其实,在知道暂时无法装好双系统之后(主要是装Ubuntu 20.04.1这一个版本时总是在检查完文件之后就卡在一个界面,那个界面有个加载的白圈,这个白圈不转了),我就退而求其次,在我的win10上装个Ubuntu子系统,如果只用命令行的话,七八...
2020-12-20 13:34:06
271
1
原创 论文研读番外篇(2)——雅可比方法实现对角化
雅可比矩阵是以一阶偏导数按一定方式排列而成的矩阵,如果为方阵,其行列式就是 雅可比行列式,雅克比行列式最重要的就是能够提供一个最佳线性逼近。 雅克比矩阵体现的是多重映射关系,假设有 m 个自变量,n 个因变量,那么它们就可 以表示成一个 m×n\mathrm{m} \times \mathrm{n}m×n 的矩阵,其元素即为一个对应映射的偏导数,比如给定三个自变量x1、x2,x3x_{1} 、 x_{2}, x_{3}x1、x2,x3 和三个因变量 y1、y2、y3,y_{1} 、 y_{2} 、
2020-10-18 19:36:23
1336
原创 基于高阶奇异值的多模态推荐和聚类方法
本博客整理自研读的论文,文末会附上出处。基于高阶奇异值的多模态推荐和聚类方法一.背景二.基于高阶奇异值分解的多模态推荐1.基于张量的教育大数据表示与融合(+简化)2.基于高阶奇异值分解的多维关联分析3.实现不同情景下的教育资源精准推荐三.基于高阶奇异值分解的自适应聚类增量式自适应聚类的学习共同体构建一.背景 在教育领域,随着云计算和移动互联网的发展,不同的学习平台产生了海量的教育大数据,包括个人数据、学习行为记录、交互数据等。 当前教育数据彼此分割、互操作不强,导致从中抽取、挖掘出有价值的个性化
2020-09-03 21:00:08
1664
2
原创 基于张量的多元多阶马尔科夫多模态预测方法
本博客整理自研读的论文,文末会附上出处。基于张量的多元多阶马尔科夫多模态预测方法一.问题背景二.多元多阶马尔科夫模型1.张量连接和张量统一乘2.多元多阶马尔科夫转移模型3.多元多阶马尔科夫多步转移模型三.多元多阶马尔科夫稳态联合主特征张量四.多元多阶马尔科夫多模态预测一.问题背景 基于马尔科夫理论进行预测被认为是一种可行的方法。近年来,结合张量理论和马尔科夫理论进行精准预测,已成为学术界的一种新趋势。 在早期对多阶马尔科夫模型的研究中,是通过多个时刻的线性组合近似为一阶马尔科夫链来处理,但是
2020-08-30 16:31:14
2241
原创 基于张量网络的机器学习(七)
现在让我们先解决一下上一次博客中提出的问题:斯密特分解时的系数矩阵中的元素是什么?怎么排列的? 在对量子态作斯密特分解时,假如那个量子态的基态为L,每个基态的都为d维态矢,那么就会有dL种可能,即dL个系数,矩阵化的时候是矩阵化为一个d×dL-1的矩阵,至于怎么排列,按顺序丢进去就好了。我们再回顾一下前面的斯密特分解的这个式子,其实很具有迷惑性,这个量子态有D个基态,这里的基态和斯密特分解前的基态是不一样的,这里的α\alphaα可以取D个值,所以应当是指D个纠缠谱的奇异值,并非进行了D-1次
2020-08-23 17:20:22
612
原创 基于张量网络的机器学习(六)
在上一次的学习中,我们从TT分解借助新的张量表示方法过渡到了矩阵乘积态,可以说矩阵乘积态(MPS)的另一个别称为TT分解,现在,让我们再一次看看以下两个概念。截断维数χ\chiχ与TT秩:截断维数实际上就是TT分解(或MPS)中辅助指标能取的数的个数,然后借此引入了TT秩,它是一个n维数列(向量),里面每个元素就是每个辅助指标的截断维数,TT秩是在不作任何近似时引入的概念,但如果不作任何近似,随着张量阶数增加,截断维数会指数增加,这样实际上并未解决“指数墙”问题,然后我们又极小化辅助指标,这就是最优
2020-08-16 16:53:16
807
原创 基于张量网络的机器学习(五)
在基本了解了张量新的表示方法后,如果我们把向量换成矢量,将实矩阵换为复矩阵,总之将对应的一切实数都换成复数,我们会发现这种方法很多时候依旧适用,甚至在其中会蕴含更多奇妙的东西,能够起到更大的作用。一.TT分解(Tensor-train decomposition)1.TT分解 先上一张张量火车分解的示意图: 这里将一个三阶张量分解成了两个二阶张量和若干个三阶张量的乘积,如果我们用等式来表达这个过程会显得麻烦,此时,新的方法就起到了作用。定义:给定一个N阶张量,如果能将其分解成N个二阶或
2020-08-09 17:27:25
1582
原创 基于张量网络的机器学习(四)
在前面的学习中,我们已经比较详细地学习了四种张量分解,接下来,我们就将进入张量网络的学习。一.新的方法 当张量的阶数超过了3阶后,我们要去形象地描绘这个张量就会显得困难,为了方便,现在引入一种新的张量表示方法。使用新的方法描绘各阶张量 对于一个矩阵,可以将行作为起始地点,将列作为目标地点,那么对应的元素值可以代表起始地点到目标地点的距离,类似的,我们把矩阵的行作为输入,列作为输出,行数可以使用指标i代表输入空间的维数,列数可以用指标j代表输出空间的维数,并用类似电路的图形来表示:这表示一
2020-08-02 14:34:52
838
原创 基于张量网络的机器学习(三)
本次将继续学习张量分解的有关内容。一.TURCKER分解二.非负矩阵分解三.奇异值分解和高阶张量的奇异值分解(一般)矩阵的奇异值分解(SVD)高阶张量的奇异值分解(HOSVD)四.其他矩阵分解1.LU分解2.正交分解(QR)3.Cholesky分解五.张量分解的特性总结...
2020-07-26 17:32:34
1291
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅