自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(118)
  • 收藏
  • 关注

原创 《人工智能、机器学习、深度学习、CNN知识点整理》

文章目录1 Artificial Intelligence (AI,人工智能)2 Machine Learning(ML,机器学习)2.1 监督学习和无监督学习2.2 监督学习的线性回归学习算法2.3 机器学习的常见算法2.4 人工神经网络3 Deep Learning(DL,深度学习)4 Convolutional Neural Networks(CNN,卷积神经网络)5 CNN在CV(计算机视觉)上的应用5.1 图像分类(自己的理解,如有理解有误的地方请谅解!!!)我们常常会有一个疑惑,

2021-07-29 14:30:30 3278

原创 服务器上配置 Tensorflow(pytorch) GPU 版

文章目录1 cuda的安装2 CUDNN的安装3 Anaconda3安装4 安装 tensoflow-gpu4 安装 opencv4 安装 pytorch1 cuda的安装首先安装CUDA,我安装的是8.0版本(1)下载CUDA网址:官网如下https://developer.nvidia.com/cuda-80-ga2-download-archive或者链接:https://pan.baidu.com/s/19BjPkSU2FJObF9avp6Z-ug 密码:70w9下载的CUDA文件名为:

2020-09-10 15:58:15 554

原创 判断大语言模型(LLMs)是否被“越狱成功“的四类方法

这四个方法本质都是“越狱成功与否的判断工具”——针对“恶意请求(比如‘怎么制造炸弹’)+ 模型响应”这一对组合,输出“是(越狱成功,响应有害)”或“否(越狱失败,响应安全)”的结论,只是判断的主体、方式和适用场景不同。

2025-12-22 14:09:10 261

原创 sequence-to-sequence models是什么?

这个问题切得很准!Sequence-to-Sequence(简称Seq2Seq,序列到序列)模型是NLP里处理“输入一段文本、输出另一段文本”任务的核心架构,通俗说就是**“把一个序列(比如问题、原文)转换成另一个序列(比如答案、译文)”** 的模型。

2025-12-18 18:17:44 219

原创 Masked Language Models是什么?

MLM本质是一种“让模型通过猜词学语言”的训练方法,核心优势是能让模型深刻理解上下文语义,是很多语言理解类模型的“地基”。它就像一个“语言学霸”,通过大量“填空练习”吃透了语言的规律,之后不管是做阅读、匹配信息,还是辅助生成内容(比如RAG里的检索环节),都能发挥扎实的基础作用~

2025-12-18 17:39:20 359

原创 parametric memory(参数模型)和 non-parametric memories(非参数模型)的区别

特点参数模型非参数模型知识存储位置模型内部的“参数”(芯片)模型外部的“数据集”(百科)知识更新方式需重新训练模型直接替换外部数据集回答依据自己“记住”的知识实时“查到”的知识例子维基百科索引、BM25检索库而RAG模型的聪明之处,就是把两者结合了——既有参数模型的“语言表达能力”(会组织语言写答案),又有非参数模型的“灵活查资料能力”(不会瞎编、能更知识),相当于给会说话的机器人配了一套可随时更新的百科全书~

2025-12-18 17:20:22 279

原创 PaperReding:《LLaMA: Open and Efficient Foundation Language Models》

LLaMA 本质是 “用公开数据训练、兼顾性能和实用性的开源大模型”—— 它证明了 “不用专属数据、不用超大参数,也能做出顶尖 AI”,而且人人都能获取、使用、改进,大大降低了大语言模型的研究和使用门槛。数学题、写代码:没专门针对性训练,却能打赢一些专门优化过的模型 —— 比如 650 亿参数版本写 Python 代码,比 PaLM 620 亿参数版本还强。模型大小从 70 亿参数到 650 亿参数不等,兼顾 “性能强” 和 “跑得动”—— 比如 130 亿参数的版本,一台普通 GPU 就能运行。

2025-12-17 15:58:56 942

原创 PaperReading:《GPT-4 Technical Report》

它是用“预测下一个词”的方式预训练的,之后又通过人类反馈优化过(让回答更靠谱、符合需求)。而且工程师们找到了方法,能通过小模型(计算量只有 GPT-4 的千分之一)的表现,提前猜到 GPT-4 能做到什么程度,不用等它完全训练完才知道。:GPT-4 是个超厉害的“全能选手”,考试、干活都在行,还能看懂图片,但也会犯错、有局限,OpenAI 也在尽力让它更安全,用的时候得留个心眼。:可以用来写东西、分析问题、辅助工作,但不能完全信它的输出,尤其是重要场景(比如法律、医疗),得有人把关。

2025-12-16 17:08:08 469

原创 《Revealing Safety Generalization Challenges of Large Language Models via Code Completion》

论文链接: https://arxiv.org/pdf/2403.07865该部分指出“大模型安全对齐存在代码领域泛化漏洞”,并提出CodeAttack框架解决这一研究缺口。大模型现状:能力与风险并存:以GPT、Llama-2为代表的大模型在自然语言任务中表现突出,但生成能力可能被滥用(如生成有害内容),需通过监督微调、RLHF等安全对齐技术规范行为。现有安全技术的局限:主流安全对齐方法仅针对自然语言输入输出优化,面对非自然语言场景时泛化能力不足;此前相关研究(如Base64编码、CipherChat密码

2025-12-12 13:47:40 979

原创 论文中摘要和引言的区别?

摘要本质是论文的“浓缩版”,需用最简洁的语言概括研究的核心信息,让读者快速了解“研究做了什么、发现了什么、有什么意义”。维度摘要(Abstract)引言(Introduction)核心目的浓缩全文,让读者快速判断研究价值(“读完就知道论文讲了啥”)引导读者进入研究,解释“为什么做这个研究”(“说服读者这个研究重要”)内容范围涵盖“目的→方法→结果→结论”全流程,是全文的“微缩版”聚焦“背景→缺口→目标→结构”,不包含具体结果和结论(或仅简要提及)结构逻辑。

2025-11-15 14:26:40 404

原创 PaperReading:《MAMORX: Multi-agent Multi-Modal Scientific Review Generation with External Knowledge》

论文链接: https://openreview.net/pdf?id=frvkE8rCfX论文1的Introduction部分(对应文档1-8至1-20段落)围绕“科学论文评审的痛点与MAMORX框架的提出”展开,核心可总结为三部分:研究背景与问题、现有方案局限、MAMORX的创新与贡献,具体内容如下:该部分核心是梳理“人工评审逻辑”与“自动化评审技术演进”两条脉络,明确现有研究的进展与不足,为MAMORX框架的设计提供依据,具体总结如下:该部分(对应文档1-29至1-44段落),核心是详细拆解 MAMO

2025-10-20 15:32:49 836

原创 代码解析:《AGENTREVIEW: Exploring Peer Review Dynamics with LLM Agents》

从 README 可知,该项目是一个基于大语言模型(LLM)的同行评审模拟框架,用于研究学术论文评审过程中的动态因素(如评审偏见、社会影响等)。核心目标是通过模拟评审流程(包括评审员评估、作者反驳、领域主席(AC)决策等阶段),分析影响评审结果的潜在变量。通过以上步骤,可逐步理清项目的核心逻辑和代码组织,进而理解其如何实现评审过程的模拟与分析。

2025-10-17 16:01:09 540

原创 lP 地址、掩码、默认网关、DNS、 端口这个五个是什么关系?

IP:你是谁(门牌号)掩码:你和谁是邻居(同个局域网)网关:出门必经的门卫(连接内外网)DNS:把网址翻译成门牌号的翻译官端口:你家具体哪个门(区分不同应用)这五个配合起来,你的电脑才能顺畅上网、收发数据~

2025-10-17 15:57:03 418

原创 PaperReading:《Automated Peer Reviewing in Paper SEA: Standardization, Evaluation, and Analysis》

该部分开篇明确SEA框架的核心逻辑——通过“Standardization(标准化)、Evaluation(评估)、Analysis(分析)”三模块协同,解决现有LLM评审“数据格式混乱、评审质量不稳定、内容与论文不一致”的问题,整体框架如图2所示。框架以开源模型Mistral-7B为基础,结合GPT-4的标准化能力与自校正策略,实现“从多源评审到可靠评审输出”的全流程自动化,且各模块通过数据传递形成闭环(如标准化模块的输出为评估模块提供训练数据,分析模块的结果反哺评估模块优化评审)。

2025-10-15 20:05:07 790

原创 PaperReading:《DeepReview: Improving LLM-based Paper Review with Human-like Deep Thinking Process》

核心目标:给定输入论文(q),生成“定性评审文本(元评审(s))+定量评分((a))”的评审对((s,a)),推理过程需遵循“(q \to z_1 \to z_2 \to z_3 \to (s,a))”的顺序,确保每一步推理都基于前序结论。概率模型。

2025-10-15 17:39:49 684

原创 PaperReading:《AGENTREVIEW: Exploring Peer Review Dynamics with LLM Agents》

链接: https://arxiv.org/pdf/2406.12708v1该部分主要围绕学术同行评审的现状、挑战及研究动机展开:该部分聚焦于AGENTREVIEW框架的核心设计与实现,从目标、智能体角色、评审流程、数据选择、基线设置五方面展开,解释如何通过该框架模拟同行评审以解决传统分析的痛点:为解决传统同行评审分析的“多变量复杂性、潜变量难测量、数据隐私敏感”三大挑战,提出基于大型语言模型(LLM)与智能体建模的模拟框架,通过可控实验解耦评审中的多变量影响,同时规避真实数据的隐私风险。框架构建了与真实评

2025-10-14 17:54:31 946

原创 如何写一篇benchmark论文?

公平性:所有方法在相同条件下评估,不偏袒任何一方;全面性:覆盖核心场景、多维度指标,避免片面;可复现性:公开数据、代码、配置,让结果可验证;实用性:为领域提供明确的“性能标尺”和改进方向,而非单纯堆砌数据。按这个框架写,既能满足学术规范,又能为领域提供真正有价值的参考——很多顶会(如NeurIPS、CVPR)的benchmark论文,都是通过这种结构化设计成为领域“标准参考”的。

2025-10-11 14:03:46 722

原创 网络安全和NLP、CV是并行的应用吗?

一句话讲清关系:NLP和CV是“处理文本/图像数据的AI技术”,网络安全是“需要用这些技术解决威胁检测、数据保护等问题的应用场景”——三者不是并行的应用,而是“技术支撑应用”的层级关系。而且网络安全不仅依赖NLP和CV,还会用到异常检测、强化学习等其他AI技术(如摘要3提到的孤立森林、LSTM用于异常访问检测),是一个需要多技术协同的综合应用领域。

2025-09-30 16:13:21 502

原创 安全对齐到底是什么

现在大模型越来越多地用在医疗、金融、教育这些“出错就出大事”的领域,安全对齐不是“可选功能”,而是“必选项”。它的终极目标不是“让模型拒绝所有敏感请求”,而是“让模型能判断什么该做、什么不该做,即使被诱导也不闯祸”——毕竟我们需要的是“聪明又守规矩”的AI,而不是“又笨又只会说抱歉”的AI。

2025-09-29 15:53:58 538

原创 联邦大型语言模型、多智能体大型语言模型是什么?

不传原始数据,只传“模型碎片”比如摘要3提到的「FL-GLM框架」:把大模型拆成三部分——客户端(比如医院的电脑)存“输入层+输出层”,服务器存“中间核心层”。训练时,客户端只传“处理后的特征数据”(不是原始病历),服务器用这些数据优化中间层,再把优化结果传回客户端,全程原始数据不离开本地。加密+高效,降低成本风险加密:数据传输用RSA等非对称加密(摘要3),防止中途被窃取;

2025-09-29 15:39:53 800

原创 什么事可信机器学习(Trustworthy Machine Learning, TML)?

普通机器学习追求“把事做好”,可信机器学习追求“把事做好,还让人放心”——它不是要牺牲模型性能,而是让“高性能”和“高可信”并存,让AI真正能在关键场景里“帮上忙,不添乱”。

2025-09-29 14:48:50 1075

原创 如何找到到自己研究领域的经典论文?

定位方向:用3-5个关键词明确子方向,找1篇近期综述确认领域边界;抓核心渠道:先从Google Scholar按“关键词+高引用”找,再去领域顶会/顶刊补充,同时请导师推荐;验证经典性:看是否奠基/突破性、被高频正面引用、覆盖核心问题;构建网络:通过“引用关系”向前追溯、向后延伸,整理成主题化文献库。按这个流程,1-2周内就能快速掌握领域内的核心经典论文,为后续研究(比如开题、做实验)打下基础。

2025-09-29 14:30:51 556

原创 漏洞、对抗攻击、防护措施之间的关系

—三者是“根源-利用-反制”的动态因果链,且相互驱动、不断博弈。

2025-09-29 14:06:33 438

原创 研究生如何看懂文献?

核心问题:这篇论文要解决什么具体问题?(1句话);核心方法:用什么方法解决?创新点是什么?(1句话);核心结论:实验证明了什么?有什么局限性?(1句话);关键图:贴1张最核心的图(方法框架图/结果对比图),并在图上标注“对我有用的细节”(如“这个模块可以借鉴到我的模型中”)。示例:核心问题:现有大模型安全评测忽略代码场景,无法检测代码形式的对抗攻击;核心方法:提出CodeAttack,通过生成语法正确的恶意代码提示,绕过模型安全防护,创新点是结合代码语法规则设计对抗样本;

2025-09-28 16:08:29 805

原创 一篇综述一般要怎么写

综述的核心是,而非简单的文献罗列。

2025-09-28 15:01:53 1354

原创 如何判断一篇文章是不是benchmark

明确提及“Benchmark”“Benchmarking”;提及“Dataset”“Evaluation”“Framework”且搭配“Standard”“Benchmark Suite”(如“XXX Dataset: A New Benchmark for XXX Task”);提及“Metric”“Baseline”且聚焦“统一评估”(如“Unified Evaluation Metrics for XXX”)。反例。

2025-09-28 14:30:20 772

原创 研究生如何看懂文献?

核心问题:这篇论文要解决什么具体问题?(1句话);核心方法:用什么方法解决?创新点是什么?(1句话);核心结论:实验证明了什么?有什么局限性?(1句话);关键图:贴1张最核心的图(方法框架图/结果对比图),并在图上标注“对我有用的细节”(如“这个模块可以借鉴到我的模型中”)。示例:核心问题:现有大模型安全评测忽略代码场景,无法检测代码形式的对抗攻击;核心方法:提出CodeAttack,通过生成语法正确的恶意代码提示,绕过模型安全防护,创新点是结合代码语法规则设计对抗样本;

2025-09-28 14:09:21 544

原创 5篇“大模型(尤其是多模态模型)的安全漏洞与对抗攻击”文章之间的关系

第5篇是“网的框架”,划定了“单模态、多模态、复杂系统”三个风险区域;前4篇是“网的节点”,分别在“多模态数字场景(1、2)、多模态物理场景(3)、单模态特定场景(4)”这几个关键位置,填上了具体的风险案例;最终织成一张“从理论到实践、从数字到物理、从通用到场景”的大模型安全风险图,帮研究者和开发者看清“大模型哪里容易被攻、怎么被攻”,为后续防御铺路。

2025-09-26 10:53:17 474

原创 研究生如何快速入门自己的领域?

别贪多求全:不用看完所有文献、学会所有方法,先聚焦“1个核心子方向”(比如你研究多模态,先盯死“图文对齐”,再扩展到其他方向);别只看中文:领域核心论文和教材大多是英文的,入门阶段就逼自己看英文(用DeepL翻译辅助,但别逐句翻,先抓大意);别“光看不动”:哪怕只跑通一个demo、画一张脑图,也比“看了10篇论文却没留下任何东西”强——研究生入门,“输出”比“输入”更重要。

2025-09-25 16:53:50 1495

原创 PaperReading:《Survey of Vulnerabilities in Large Language Models Revealed by Adversarial Attacks》

这篇论文本质是一份「大模型防骗说明书」——把现在能用来“忽悠”大语言模型(比如GPT、LLaVA这些)的各种“骗术”(学术叫“对抗攻击”)全都整理归类,还讲了这些骗术为啥能成、以及目前有啥办法防,核心就是帮大家搞清楚:大模型看着聪明,其实漏洞不少,得小心用。先铺垫个背景:现在大模型(不管是只处理文字的,还是能看图的多模态模型)越来越火,但它们有个大问题——容易被“骗”。比如本来模型被训练得“不教坏人做坏事”,结果攻击者改改输入,模型就乖乖说了;或者让翻译模型突然改说笑话,这些都是“对抗攻击”。

2025-09-25 16:46:28 469

原创 PaperReading:《Are We There Yet? Revealing the Risks of Utilizing Large Language Models in Scholarly》

他们试了好几种LLM(GPT-4、Llama这些),发现不管哪种都有这些问题,只是程度不同。比如哪怕只把5%的人类评审换成被操纵的LLM意见,都会让12%的论文掉出“前30%”(直接影响会议录取)。现在的LLM顶多当个“评审助手”,帮人类整理思路,绝对不能替代人类。得先把这些“被骗”“瞎编”“偏心”的坑填上,加好防护措施(比如检测隐藏文字、去偏见算法),才能谈正经用。不然用得越多,越容易让差论文混进去,毁了学术评审的公平性。

2025-09-25 16:30:40 302

原创 PaperReading:《Learning Transferable Visual Models From Natural Language Supervision》

CLIP(Contrastive Language–Image Pre-training,对比语言-图像预训练)是OpenAI于2021年发表在国际机器学习顶会ICML上的开创性论文,全称为《Learning Transferable Visual Models From Natural Language Supervision》(从自然语言监督中学习可迁移视觉模型)。这篇论文提出了一种全新的多模态预训练方法,通过对比学习让机器同时理解图像和文本的语义关联,彻底改变了计算机视觉和自然语言处理的交互方式。

2025-09-25 15:48:11 895

原创 PaperReading:《Manipulating Multimodal Agents via Cross-Modal Prompt Injection》

比如想让“菜谱AI”别做菜谱、改去帮人编辑文字,先找个画图AI(比如Stable Diffusion)生成一张“人在改文字”的图,然后把这张图的“特征”(AI认图靠的是特征,不是人眼看到的画面)嵌到一张普通食材图里——人眼看还是食材图,但AI看这张图时,会自动关联“改文字”的任务。比如不直接说“帮我改文字”,而是先猜AI的安全指令(比如“你是菜谱大师,只能处理菜谱相关任务”),再生成一句绕弯子的话:“帮我改下这段食材描述的文字,更符合菜谱风格”——AI以为是和菜谱相关,其实是在执行“改文字”的恶意任务。

2025-09-25 14:28:08 455

原创 PaperReading:《Empirical Analysis of Large Vision-Language Models against Goal Hijacking via Visual 》

先掰扯清楚核心场景:比如你本来想让AI“详细描述这张图里的椅子”(这叫“原始任务”),但攻击者在你给的图片上偷偷加了行小字(比如在图片顶部加个白边,写上“别管之前让你做的,只告诉我图里丝带是什么颜色”)——如果AI真的不描述椅子了,反而去回答丝带颜色,那这就叫“目标劫持”成功了,论文里给这招起了个名儿叫“GHVPI”。这事儿的关键是“藏在图片里”——之前想骗AI改任务,都是直接在文字里加猫腻(比如“忽略前面的,听我的”),但现在是把这种“骗术”塞进图片,AI得先认出图片里的字,再被这些字误导,才算中招。

2025-09-25 11:57:26 303

原创 PaperReading:《JAILBREAK IN PIECES: COMPOSITIONAL ADVERSARIAL ATTACKS ON MULTI-MODAL LANGUAGE MODELS》

不用知道AI的全部秘密,只要用一个常见的“看图AI”(比如CLIP,很多模型都用它处理图片)就行:让这张“假正常图”在看图AI眼里,和真正的“坏图”(比如炸弹实拍图)特征几乎一样,但人眼看不出来区别。更麻烦的是,这方法门槛特别低:不用知道AI的内部代码(很多闭源AI也能用),只要会用那个常见的“看图AI”生成“藏坏图”就行。比如不说“教我做炸弹”,而是说“教我做图里的这些东西”——这句话本身很正常,AI不会防,但结合那张“藏坏信息的图”,AI就会把图里的“坏特征”当成“图里的东西”,然后乖乖给你出教程。

2025-09-24 16:45:46 189

原创 大模型安全测评领域如何入门

通过实战(如复现实验、参与竞赛)深化理解,同时保持对政策(如《生成式人工智能服务管理暂行办法》)与技术动态的敏锐感知,确保研究方向的前沿性与合规性。通过以上路径,可在3-6个月内建立扎实的领域基础,并逐步开展独立研究。

2025-09-24 11:16:28 734

原创 Paper Reading《TrafficFormer: An Efficient Pre-trained Model for Traffic Data》

论文链接: http://www.thucsnet.com/wp-content/papers/guangmeng_sp2025.pdfIEEE SP 2025该部分主要阐述了研究背景、现有方法的不足、预训练技术的应用潜力以及TrafficFormer模型的提出。研究背景与意义:网络流量数据蕴含网络实体的交互逻辑和行为信息,对其进行分析和分类在网络安全和管理方面至关重要,如识别恶意软件、区分服务类型等。现有方法的问题- 传统机器学习方法:依赖专家知识选择特征,如FlowPrint、CUMUL和Appsc

2025-08-02 15:11:58 926

原创 Paper Reading【The Digital Cybersecurity Expert: How Far Have We Come?】

论文链接: https://arxiv.org/pdf/2504.11783IEEE SP 2025(背景意义)随着 LLMs 的快速发展,“数字网络安全专家” 的概念逐渐受到关注,微软、谷歌等企业已推出相关工具(如 Copilot for Security、Gemini in Security)。但关键问题在于:当前 LLMs 距离成为真正的数字网络安全专家还有多远?这一问题的答案对理解 LLMs 在该领域的能力与局限、推动其有效部署至关重要。(现有工作的缺点)现有研究主要从特定安全任务表现和网络安

2025-07-12 12:09:39 933

原创 《SoK: A Framework and Guide for Human-Centered Threat Modeling in Security and Privacy Research》

系统威胁建模是分析硬件/软件系统以识别安全漏洞并制定缓解措施的过程,经典框架围绕“构建什么、潜在风险、应对策略、分析有效性”四个基本问题展开。

2025-07-06 17:16:58 885

原创 Paper Reading《SoK: Explainable Machine Learning in Adversarial Environments》

鲁棒性概念模板采用R∣C\R|CR∣C形式化表示,其中R\RR为限制条件,CCC为约束条件,需满足∀xx∈XRxx→Cxx∀xx∈XRxx→Cxx。限制条件R\RRCLSEQ(分类等价):要求FθxFθxFθ​xFθ​x,即仅考虑预测相同的输入对。LocdXδLocdX​δ(局部邻域):限制输入扰动范围dXxx≤δdX​xx≤δ。约束条件(CCCLIPdEdX。

2025-07-01 00:13:42 746

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除