论文阅读
文章平均质量分 82
寒假完成导师任务
Che_Che_
比奇堡小蜗
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
论文阅读-- UNIFUZZ: A Holistic and Pragmatic Metrics-Driven Platform for Evaluating Fuzzers (2020)
本文介绍了一个名为UNI FUZZ的开源平台,用于全面、定量地评估软件漏洞检测工具(模糊测试)(fuzzer)。该平台整合了35个可用的fuzzer、20个真实世界程序的基准测试和六类性能指标。作者通过对现有fuzzer的系统研究,发现并修复了一些缺陷,并将它们整合到UNI FUZZ中。作者提出了一组实用的性能指标,从六个互补的角度评估fuzzer的性能。作者使用UNI FUZZ对几个著名的fuzzer进行了深入评估,发现没有一个fuzzer在所有目标程序上表现最佳。原创 2024-02-25 23:04:15 · 1155 阅读 · 2 评论 -
论文阅读-Large Language Models are Zero-Shot Fuzzers: Fuzzing Deep-Learning Libraries via Large Language
主旨主旨。原创 2024-02-11 18:39:32 · 1301 阅读 · 1 评论 -
论文阅读-EMS: History-Driven Mutation for Coverage-based Fuzzing(2022)模糊测试
本文研究了基于覆盖率的模糊测试中的历史驱动变异技术。之前的研究主要采用或来探索触发独特路径和崩溃的测试用例,但它们缺乏对模糊测试历史的细粒度重用,即它们在不同的模糊测试试验之间很大程度上未能正确利用模糊测试历史。本文提出了一种轻量级且高效的 概 率 字 节 定 向 模 型(PBOM),以捕获来自试验历史的字节级变异策略,并因此有效地触发独特路径和崩溃。本文还提出了一种新的历史驱动变异框架EMS,用于加速基于覆盖率的模糊测试中的路径和漏洞发现。它将PBOM作为变异算子之一(包括。原创 2024-02-18 18:59:35 · 1505 阅读 · 1 评论 -
论文阅读-自动程序修复-Is Your Code Generated by ChatGPT Really Correct?Rigorous Evaluation of Large Language
本文关注大型语言模型在代码生成中的应用,旨在评估ChatGPT生成的代码的正确性。(评估生成式代码的正确性)原创 2024-03-20 23:16:00 · 1485 阅读 · 0 评论 -
论文阅读-自动程序修复-DEAR: A Novel Deep Learning-based Approach for Automated Program Repair
在现实情况下存在下面的问题:图1所示代码的缺陷体现在:(1)开发人员没有处理UID为空的情况,(2)没有对UID进行大小写转换,(3)没有对password进行hash运算。:图1中的bug需要在同一个程序中对多条具有依赖关系的语句进行修改,即:(1)对于line 4的if分支,添加else分支,以处理UID为空的情况;(2)在line 6对UID进行大写转换;(3)在line 11添加hash操作。。一般来说,。:对该bug的修复涉及多个AST子树的调整,如对line 4 if语句的修改,就涉及到在i。原创 2024-03-26 09:35:45 · 1242 阅读 · 0 评论 -
论文阅读-自动程序修复-Automated Repair of Programs from Large Language Models
但是生成的代码正确率很低,文章以GPT-3模型的后代-Codex模型,为例,试图利用自动化程序修复(APR)技术来修复Codex产生的代码错误。- 在适当的指令(来自故障定位的信息)下,Codex-e在代码编辑生成方面显示出初步的潜力,通过修复45%更多的错误程序,其表现优于TBar和Recoder。文章主旨:研究了Codex自动生成的程序中的错误,并探讨了现有的程序修复(APR)工具以及新发布的Codex-e是否能够修复自动生成的有缺陷的程序。- 建议APR研究的未来方向(例如,灵活的故障定位形式)。原创 2024-02-06 22:56:12 · 2239 阅读 · 0 评论 -
Mopt: Optimized Mutation Scheduling For Fuzzers(2019)
论文阅读:Mopt: Optimized Mutation Scheduling For Fuzzers(2019)原创 2024-02-14 18:56:28 · 1592 阅读 · 0 评论 -
从CNN ,LSTM 到Transformer的综述
我们直接用下面的例子简单最粗暴的理解:从形式上看,每个向量之间的内积为0,也就是每个向量是互相正交的,除了当前单词位置的值为1之外,其余位置的值都为0,。假设⽤ one-hot对句⼦进⾏表示,对句⼦分词之后,我们可以得到['我‘ , ’爱‘ , ’北京‘ , ’天安⻔‘],可以⽤one hot(独热编码)对单词进⾏编码。具体为:“我”可以表示为[1,0,0,0]"爱"可以表示为[0,1,0,0]'北京'可以表示为[0,0,1,0]'天安⻔'可以表示为[0,0,0,1]缺点。原创 2024-01-22 23:47:19 · 3428 阅读 · 0 评论 -
论文阅读- 人工智能安全 TEXTBUGGER: Generating Adversarial Text Against Real-world Applications(2018)
(4) substitution - c (SubC):用视觉上相似的字符替换(例如,用‘0 ‘替换‘o ‘,用‘1‘替换‘l ‘,用‘@ ‘替换‘a ‘)或键盘上相邻的字符(例如,用‘n‘替换‘m ‘)。文本领域的对抗攻击会更加复杂,在文本领域,微小的扰动通常是清晰可见的,替换单个单词可能会彻底改变句子的语义。·下面的白盒和黑盒攻击最大的不同是因为黑盒攻击,我们无法得知分类器的内部结构,在计算单词重要性的时候,在不知道分类模型参数和结构,我们要克服这个困难,所以在白盒的算法上我们的黑盒算法做了变化。原创 2024-01-18 16:27:54 · 1525 阅读 · 0 评论 -
时间序列模型学习笔记
ARIMA已经老了,但是学习一下有一个了解也是挺好的。建议配合这个博主的博客食用。原创 2024-01-23 00:12:37 · 465 阅读 · 0 评论 -
论文阅读-Transformer-based language models for software vulnerability detection
例如,将用户自定义的函数名称替换为"FUNC"(或者使用连续的自然数作为后缀,如"FUNC_1"、"FUNC_2"等,以区分多个函数);Group 1 包含BE及其非易受攻击的代码gadgets,Group 2 包含RME及其非易受攻击的代码gadgets,Group 3 包含BE、RME及其非易受攻击的代码gadgets。通过这个框架,可以利用Transformer-based语言模型来自动检测软件漏洞,并且相比传统的基于RNN的模型,语言模型在漏洞检测方面具有更好的性能表现。原创 2024-02-06 13:05:52 · 1315 阅读 · 0 评论 -
挑战杯参赛总结-时间序列预测
因为可以选择性忘记一些特征,过滤掉不需要的参数,这一点优化改进了循环神经网络(RNN)的缺点:因为记录所有时序输入,越近的输入对输出结果影响越大,离得远的被稀释,记得太多了可能反而就不准确了。它包含三个部分:自回归(AR)部分、差分(I)部分和移动平均(MA)部分,用于建模数据的长期依赖、趋势和季节性。LSTM在训练时需要大量的数据,对于ARIMA,相对较少的历史数据样本也能提供可行的建模和预测结果,它不需要大量的样本数据来构建模型。LSTM可用于处理各种类型的数据,包括单变量时间序列和多变量时间序列。原创 2024-01-19 17:21:52 · 549 阅读 · 0 评论 -
论文阅读-代码相似度检测 Neural Network-based Graph Embedding for Cross-Platform Binary Code SimilarityD
在了解什么是跨平台二进制代码相似度检测的背景下(定义,应用),本文目标是改进算法(近似图匹配算法),提出一种新的基于神经网络的算法(对⼆进制函数的控制流图(Control-Flow Graph,CFG)提出了⼀种新的基于神经⽹络的图嵌⼊⽅法,通过衡量 embedding 之间的距离来计算两个函数的相似度。相 反, 我们提出了一 种用 于相似性检测的计算图嵌入的新方法,通过将图嵌入网络组合成一个Siamese (暹罗)网络,该网络自然地捕获了两个相似函数的图嵌入应该彼此接近的目标。原创 2024-01-18 00:53:25 · 813 阅读 · 0 评论
分享