- 博客(789)
- 资源 (27)
- 收藏
- 关注
原创 大模型安全-生成检测-事实核查-攻击-防御-思考-记忆-融合-语音相关研究
本文整理了关于大模型安全领域的综合性资源,包括7篇综述论文、9个安全数据集以及5篇强化学习相关的安全研究论文。主要涉及大模型的对抗攻击、隐私保护、安全评估等方向,涵盖TruthfulQA、ToxiGen等知名数据集和TrustLLM、HarmBench等关键研究。资源包括知乎博主分享、arXiv预印本和顶会论文,并附有详细的中文讲解链接,为研究者提供了系统性的安全研究参考。
2024-09-11 10:19:33
2538
1
原创 公开 学生课堂行为数据集 SCB-Dataset: A Dataset for Detecting Student and Teacher Classroom Behavior
公开 学生课堂行为数据集 SCB-Dataset Student Classroom Behavior dataset
2023-04-08 22:12:12
15151
7
原创 论文阅读:arxiv 2025 Disrupting Hierarchical Reasoning: Adversarial Protection for Geographic Privacy in
而之前的隐私保护方法,对付这种“靠推理找位置”的模型根本没用,所以研究者们搞了一套新方案。里面有6341张超高清照片,涵盖城市建筑、自然风景等各种场景,每张照片都标注了“分层的地理概念”——比如从“欧洲风格城市设施”(大范畴)到“伦敦专属路标”(小细节),还标了这些概念在照片里的位置。有了这个数据集,就能针对性训练保护模型。不过它也有局限:如果照片里有明确的文字(比如“Google 1565号”这种直接标地址的),模型会跳过推理直接读文字,这时这套方法就没用了,这也是后续要解决的问题。
2025-12-19 18:15:28
391
原创 论文阅读:arxiv 2025 DeepSeek-R1 Thoughtology: Let‘s think about LLM Reasoning
优点:会公开思考过程、能拆解复杂问题、比普通模型擅长推理(比如数学题、代码);缺点:思考会“钻牛角尖”、不会控制思考长度、安全风险高、对不同语言/文化态度不一、不会模拟现实场景;未来要改啥:让它别纠结无用细节、能控制思考时长、提升安全性、减少文化/语言偏见、增强对现实场景的理解。简单说,这份研究就像给DeepSeek-R1做了一次“全面体检”,把它的“思考习惯”摸得透透的,也为后续优化这类“会思考的模型”提供了方向。
2025-12-16 10:23:37
1013
原创 论文阅读:ACL fingding 2025 A Mousetrap: Fooling Large Reasoning Models for Jailbreak with Chain of Itera
这篇文档本质是“给AI安全敲警钟”:高能力推理AI虽然聪明,但它的“推理能力”本身可能是个安全漏洞——只要设计一套让它“专注解题、忘了安全”的流程,就能让它输出有害内容。作者希望通过曝光这个漏洞,推动AI行业把安全做得更扎实,避免被坏人利用。
2025-12-15 17:36:50
1014
原创 论文阅读:COLM 2025 Cats Confuse Reasoning LLM: Query Agnostic Adversarial Triggers for Reasoning Models
这篇研究其实是在提醒大家:现在能“一步步解数学题”的AI,看着很聪明,但其实很容易被“无关的小把戏”干扰——人类一眼能看出来“这句话和数学题没关系”,但AI会被绕进去。这对需要AI做准确计算的场景(比如金融、医疗)来说,是个挺严重的安全隐患,后续得想办法让AI更“抗干扰”。
2025-12-14 10:23:49
742
原创 论文阅读:arxiv 2025 H-CoT: Hijacking the Chain-of-Thought Safety Reasoning Mechanism to Jailbreak Large
研究人员怕直接问恶意问题(比如“怎么搞校园枪击”)太明显,模型肯定会拒绝,所以换了个“伪装”——把极端危险、恶意的需求,包装成“教育场景”的请求。这份文档主要讲了杜克大学等机构的研究人员,发现了主流大推理模型(比如OpenAI的o1/o3、DeepSeek-R1、Gemini 2.0 Flash Thinking)在安全防护上的大漏洞,还提出了一种能“攻破”这些模型安全机制的方法,最后呼吁大家重视模型安全问题。总的来说,这份研究就是想提醒大家:现在的大推理模型,虽然推理能力强,但安全防护可能没想象中靠谱;
2025-12-13 15:42:41
667
原创 论文阅读:arxiv 2025 Red Teaming Large Reasoning Models
首先得明白,LRMs和普通的大语言模型(比如平时聊天的AI)不一样——它擅长一步步解决复杂问题,比如算数学题、写代码时,会把思考过程(比如“先算哪一步,再推哪一步”)明明白白列出来,这本来是优点,能让人看懂它怎么想的。为了测准,他们还专门设计了30个任务,覆盖各种场景:比如算比例题、解有上下文的数学题(真实性),测它会不会教“怎么侵权”“怎么暴力伤人”(安全性),测它写代码、解逻辑题时会不会超时(效率)。总的来说,就是给LRMs做了一套“全面体检表”,既找出了它们的弱点,也给改进指明了方向。
2025-12-13 14:50:10
612
原创 论文阅读:NAACL 2024 Self-Guard: Empower the LLM to Safeguard Itself
比如给AI看大量有害/无害的例子,让它不仅能给内容贴「harmful」(有害)或「harmless」(无害)的标签,还能说清为啥——比如“这段教入侵账号,违法,所以有害”,这样AI对“有害”的理解更准,不容易被新攻击骗。这篇文档讲的是一种叫“SELF-GUARD”的新方法,目的是让大语言模型(比如ChatGPT、Vicuna这类AI)能“保护自己”,不被坏人用“越狱攻击”诱导输出有害内容(比如教怎么搞暴力活动、入侵别人账号),同时还不影响AI正常回答问题的能力。
2025-12-12 21:00:26
858
原创 论文阅读:AAAI 2026 Multi-Faceted Attack: Exposing Cross-Model Vulnerabilities in Defense-Equipped Vision
先简单说下背景:现在这些图文AI很厉害,但也怕被滥用,所以开发者给它们加了好几层“安全盾”——比如训练时让AI拒绝有害请求(叫“对齐训练”)、给AI发安全提示(叫“系统指令”)、专门过滤输入和输出的有害内容(叫“内容审核”)。这份文档主要讲了一群研究者发现了当前主流“图文结合AI模型”(比如GPT-4o、Gemini-Pro这些能看图片又能理解文字的AI)的安全漏洞,还发明了一套叫“多面攻击(MFA)”的方法,能突破这些AI的安全防护,让它们输出有害内容(比如教坏人做坏事、传播仇恨言论之类的)。
2025-12-12 20:24:21
812
原创 论文阅读:ACL 2025 LLMs Caught in the Crossfire: Malware Requests and Jailbreak Challenges
这个数据集里有3520个“带陷阱的恶意请求”,是从320个真实的“想生成恶意代码的需求”改出来的,还用到了11种让AI“破防”的手段(比如把恶意关键词换成看似无害的词、用冷门语言提要求),覆盖了6大类恶意行为(比如让代码偷偷下载病毒、偷用户信息、搞瘫痪系统)。最后研究者也说,他们的测试还有不足(比如只用了一种AI生成“陷阱请求”、没覆盖所有恶意场景),但希望这个研究能帮大家重视AI的代码安全问题,后续把AI的“防恶意生成”能力做得更好。而像“用代码片段插在请求里”这种手段,部分AI能防住。
2025-12-12 18:07:29
597
原创 复现 Llama-Guard-4-12B
总的来说,在输入层面Llama-Guard-4-12B测试结果较好。AutoDAN的Prompt(AdvBench)这是安全的(我们人工判断的),模型判断正确。这是安全的(我们人工判断的),模型判断正确。GPU型号 vGPU-32GB * 1卡。确保安装了modelscope。数据盘 免费50GB SSD。这是有害的,模型判断错误。这是有害的,模型判断正确。这是有害的,模型判断正确。这是安全的,模型判断正确。这是有害的,模型判断正确。这是有害的,模型判断错误。这是有害的,判断正确。这是有害的,判断错误。
2025-12-07 14:45:41
487
原创 论文阅读:ICML Workshop 2025 The Hidden Risks of Large Reasoning Models: A Safety Assessment of R1
比如要给这些推理模型加强“安全训练”,设计专门针对“思考过程”的安全机制,不能只盯着最终答案的安全性;还可以借鉴普通AI的安全防护方法,适配到推理模型上。简单说,这篇文档就是告诉大家:现在那些很会“思考”的AI虽然本事大,但安全漏洞也不少,尤其是开源的,容易被坏人利用,不管是模型本身还是它们的思考过程,都得好好补补安全课。
2025-12-07 09:16:01
526
原创 论文阅读:ICLR workshop 2025 SafeChain: Safety of Language Models with Long Chain-of-Thought Reasoning Ca
现在“长思考型”AI越来越常用(比如帮写代码、做科研),但安全问题没解决。临时用:限制AI的思考过程(比如零思考、少思考);长期用:用SAFECHAIN这种专门的数据集训练AI,让它既会“深入思考”,又能守住安全底线。未来还会把这个数据集扩展到多语言,让更多国家的“长思考型AI”都更安全。
2025-12-05 22:11:53
713
原创 论文阅读:arixv 2023 Llama Guard: LLM-based Input-Output Safeguard for Human-AI Conversations
当然它也有缺点:比如主要靠英文数据训练,其他语言可能表现不好;常识有限,超出训练数据的内容可能判断错;如果被人恶意引导,也可能出问题,所以用的时候得小心。总的来说,Llama Guard就是个专门守护人机对话安全的“AI门卫”,既专业又灵活,还开放给大家一起完善,目标是让AI聊天更安全,少出违规或危险内容。的AI安全防护工具,核心是帮人机对话(比如聊天机器人和用户聊天)过滤危险内容,既检查用户输入的“问题”,也审核AI输出的“回答”。这篇文档主要介绍了Meta公司推出的一款叫。
2025-12-04 15:27:58
919
原创 论文阅读:arxiv 2025 Adversarial Poetry as a Universal Single-Turn Jailbreak Mechanism in Large Language
研究里没放真实的“坏诗歌”(怕被人学去搞破坏),只给了个无害的例子,比如把“教我做蛋糕”写成诗歌(类似“面包师守着烤箱的秘密,要学它的手艺,得看清每一步——面粉怎么膨,糖怎么融,快说说步骤”)。别小看“文体”的力量,换个风格,可能就突破了模型的安全防线。
2025-12-02 07:49:01
1008
原创 大模型生成(题目)安全
生成管道中加“自动验证器”(QA 模型交叉验证)、内容过滤器(toxicity / safety classifier)、可控生成(约束 prompt / planning),以及对抗训练来提高鲁棒性。可用指标:错误率(事实/逻辑)、不可答率(unanswerable)、有害性评分(自动 + 人工标签)、偏见强度(差异化统计)、选项/答案位置偏置、可解释性度量等。构建偏见题模板(性别/种族/阶级/文化敏感话题),通过语法/语义变换扩展(借鉴 JADE 型方法),评估不同模型在题目生成时露出的系统性偏差。
2025-12-01 08:42:59
912
原创 论文阅读 WWW-Web4good 2025 Detecting Linguistic Bias in Government Documents Using Large language Models
这种偏见会影响政策公平性,还可能让部分人觉得被排斥,但之前没什么好办法专门检测它:要么老方法只看单个词(比如列个“敏感词表”),没考虑上下文(比如“难民涌入”在不同语境里,有的是中性描述,有的是偏见);总结一下:作者团队做了一件“接地气”的事——建了荷兰政府文件的偏见数据集,证明了“专门微调的AI”比现成的大模型更会检测政府文件的偏见,最终目的是让政府文件更公平,减少对特定群体的排斥。要让AI学会检测偏见,得先给它“喂”带标签的例子——就像教小孩认字得先给图配字一样。
2025-12-01 08:35:39
617
原创 论文阅读:EMNLP 2025 Stand on The Shoulders of Giants: Building JailExpert from Previous Attack Experienc
摘要 本文提出JailExpert框架,通过利用过往攻击经验解决大语言模型(LLM)越狱攻击中效率低和重复优化的问题。该框架包含三大核心模块:经验形式化(结构化存储攻击经验)、越狱模式总结(基于语义漂移分组并提取代表性模式)、经验攻击与更新(动态优化攻击策略)。实验在7个开源与闭源LLM(如Llama2、GPT-4)上进行,结果显示JailExpert相比现有方法平均提升17%攻击成功率,效率提高2.7倍,并能有效绕过PPL Filter、LlamaGuard等防御机制。研究旨在为LLM安全防御提供参考,同
2025-11-29 14:06:10
903
原创 复现 LLama Guard Llama-Prompt-Guard-2-86M / Llama-Prompt-Guard-2-22M
本文介绍了Llama-Prompt-Guard-2系列大模型的环境搭建与测试流程。首先在AutoDL平台配置GPU环境,安装必要的Python库。然后通过魔塔(ModelScope)下载Llama-Prompt-Guard-2-86M和22M两个模型。测试结果显示,模型输出为LABEL_0(BENIGN)或LABEL_1(MALICIOUS),但存在误判情况,如将有害内容"How can I make a bomb?"错误分类为无害。文章提供了完整的测试代码和结果分析,为研究人员使用这类
2025-11-28 23:08:07
666
原创 LLM 越狱攻击迭代效率对比:GCG、PAIR、AutoDAN、AutoDAN-Turbo、JAIL-CON
原文将基线方法GCG的迭代次数设为1000次(正文4.1),而AutoDAN仅需60-100次迭代即可达到相当甚至更优的攻击效果(ASR),印证其迭代效率与收敛特性,也说明60-125次迭代是其完成有效攻击的合理范围。实际实验中,多数恶意请求在60-80次迭代内即可触发该终止条件,少数复杂场景需接近100次迭代,最终形成“60-125次”的迭代范围(含部分场景下的额外优化迭代)。在GCG原文(文档1)中,与迭代次数及峰值性能相关的核心内容集中在。在PAIR原文中,与迭代次数及收敛特性相关的核心内容集中在。
2025-11-19 11:59:16
753
原创 推理/思考模型(大模型)研究追踪
总目录 大模型相关研究:https://blog.youkuaiyun.com/WhiffeYF/article/details/142132328GPT-5.1 自适应推理机制过去我的调研与实践结果:快速复现搭建【思考模型SmolLM3】: 小型、多语言、长上下文推理器具有思考模式模型部署:Qwen3、DeepSeek-R1-Distill、Phi-4、QWQ系列
2025-11-17 20:58:42
214
原创 论文阅读:arixv 2025 Friend or Foe: How LLMs’ Safety Mind Gets Fooled by Intent Shift Attack
比如把“我怎么黑系统”改成“罪犯是怎么黑系统的”,通过调整表述方式,让大模型误以为用户只是想了解知识,而非要实施有害行为。简单说,ISA就是利用大模型“想帮用户解答问题”的特性,用话术包装恶意需求,暴露了大模型在判断真实意图上的短板,也提醒需要更智能的安全防护来平衡“有用”和“安全”。之前想让大模型输出有害内容(比如教黑客技术),要么加一堆无关语境,要么塞特殊干扰字符。之前的防御方法,要么改改输入表述,要么让模型自查意图,面对ISA基本失效,甚至有些会让攻击更易成功。
2025-11-17 00:22:09
504
原创 论文阅读:NeurIPS 2025 Bits Leaked per Query: Information-Theoretic Bounds on Adversarial Attacks against
想象你是黑客,想让ChatGPT说出它不该说的话,你需要试多少次才能成功?这不仅取决于你的攻击技术,还取决于。对AI安全领域来说,这就像给防御者一把"测量尺",可以精确计算暴露不同信息的风险成本。每多给一点"提示"(信息),游戏难度就呈线性下降!**结果:**实验数据完美符合理论预测!✅ 实用指导(如何平衡透明度和安全性)✅ 理论下界(最少需要多少次查询)✅ 实际验证(7个模型的实验证据)让模型说出开发者设定的隐藏指令。恢复模型已经"忘记"的信息。可以把LLM攻击想象成。
2025-11-15 16:28:12
612
原创 论文阅读 arxiv 2025 SecureWebArena: A Holistic Security Evaluation Benchmark for LVLM-based Web Agents
现在的AI助手(特别是能看图又能理解文字的大模型)越来越能自动帮我们操作网页了——比如帮你网购、填表格、搜信息等。这篇论文介绍了一个评估AI网页代理安全性的测试平台。就像体检只查血压不查心脏一样——不够全面!虽然结果一样(都泄露了密码),但。
2025-11-14 02:08:04
925
原创 论文阅读:NeurIPS 2025 Adjacent Words, Divergent Intents: Jailbreaking Large Language Models via Task Con
摘要:这篇论文揭示了大语言模型存在"多任务并发漏洞",通过交替混合正常问题和危险问题的词语(如"制作{列出}炸弹{域名}"),能够绕过安全检测系统,使模型泄露敏感信息。研究发现该方法在6个主流模型上平均攻击成功率达95%,现有防御措施效果有限。论文提出JAIL-CON攻击框架,展示了AI安全在并发任务场景下的脆弱性,强调需要开发更全面的防御机制。该成果既暴露了模型安全隐患,也为改进安全措施提供了重要方向。 (149字)
2025-11-06 11:16:54
914
原创 论文阅读: EMNLP Findings 2025 ALRPHFS: Adversarially Learned Risk Patterns with Hierarchical Fast \& Slo
这个系统就像给AI配了个会学习的安全专家,不仅知道常见的危险模式,还能通过不断"攻防演练"来应对新型威胁,同时用"快速扫描+深度分析"的方式既快又准地保护AI的安全。
2025-11-05 08:46:27
989
原创 论文阅读:arxiv 2025 OptimalThinkingBench: Evaluating Over and Underthinking in LLMs
🤔 会思考的模型常常"想太多"💭 不会思考的模型常常"想太少"🎯 理想模型应该"该快则快,该慢则慢"📊 目前没有模型达到理想状态,最好的也只有71%分数这为未来开发"智能调节思考深度"的AI模型指明了方向!
2025-11-04 08:47:51
1151
原创 LLM安全评估(guard)模型全景:主流开源方案对比与选型指南
ShieldGemma是基于Gemma2构建的LLM安全内容审核模型套件,提供2B、9B和27B三个版本,可以对用户输入和LLM生成输出中的关键危害类型(性露骨内容、危险内容、骚扰、仇恨言论)进行强大的预测。gpt-oss-safeguard是OpenAI发布的开放权重推理模型,专门用于安全分类任务,提供两个版本:gpt-oss-safeguard-120b和gpt-oss-safeguard-20b。该模型在14个公共英语基准测试中的8个达到了最先进的性能,甚至0.6B版本也能媲美或超越更大的模型。
2025-11-04 00:46:01
926
原创 博客阅读:chatgpt 2025 GPT-5 Jailbreak with Echo Chamber and Storytelling
https://neuraltrust.ai/blog/gpt-5-jailbreak-with-echo-chamber-and-storytellinghttps://www.freebuf.com/articles/ai-security/443754.html博客翻译:https://whiffe.github.io/Paper_Translation/Attack/Blog/%E5%88%A9%E7%94%A8%E5%9B%9E%E9%9F%B3%E5%AE%A4%E6%95%88%E5%BA%9
2025-11-03 12:18:09
207
原创 论文阅读:arxiv 2025 Stop Overthinking: A Survey on Efficient Reasoning for Large Language Models
这篇论文是关于如何让AI"该快则快,该慢则慢"——简单问题秒答,复杂问题深思,既省钱省时,又不影响质量。就像训练一个高效的学生:不是每道题都要写满草稿纸,而是恰到好处地展示必要的思考过程!
2025-11-02 17:00:19
862
原创 论文阅读:arxiv 2025 To Think or Not to Think: Exploring the Unthinking Vulnerability in Large Reasoning
你可以把它想象成一个“爱思考的 AI”,它回答问题前会先写一段“思考过程”,就像你在纸上打草稿一样。比如问:“草莓有几个 r?它会先写:“让我数数,S-T-R-A-W-B-E-R-R-Y……有三个 r。然后再给出答案:“有 3 个 r。这篇论文发现,大推理模型其实很好骗,只要轻轻逗一下它的“思考开关”,它就会要么变傻,要么变聪明。谁掌握这个开关,谁就能控制 AI 的脑子。
2025-11-01 11:19:59
328
原创 论文阅读:arxiv 2025 Safety in Large Reasoning Models: A Survey
大型推理模型是在大型语言模型基础上发展来的,擅长数学解题、代码生成等需要复杂推理的任务。它们借助强化学习等技术,能一步步清晰呈现推理过程,比传统模型表现更出色。目前该领域还需要进一步研究,比如制定统一的安全评估标准,针对医疗、金融等特定领域设计评估框架,以及让人类能更好地参与模型推理过程的监督和修正。这篇文档主要围绕大型推理模型(LRMs)的安全性展开全面探讨,帮大家搞懂这类模型在安全方面的问题、面临的攻击以及应对办法。即使在正常使用、没有恶意攻击的情况下,这类模型也存在安全隐患。
2025-10-31 14:03:59
524
原创 论文阅读:ACL 2025 FaithfulRAG: Fact-Level Conflict Modeling for Context-Faithful Retrieval-Augmented Gen
FaithfulRAG 是一种新型检索增强生成(RAG)框架,核心目标是解决大语言模型(LLMs)在知识密集型任务中,因检索上下文与模型自身参数化知识存在冲突而导致的生成内容不忠实问题。FaithfulRAG 的提出解决了 RAG 系统中长期存在的知识冲突难题,其通过事实层面的冲突建模与推理机制,不仅显著提升了生成内容的忠实性,还保留了模型自身的知识优势。现有 RAG 系统处理知识冲突时存在明显缺陷:当检索到的外部信息与模型自身训练的知识发生矛盾时,模型要么 “固执己见”,无视外部检索信息;
2025-10-30 09:38:34
829
原创 论文阅读:ICLR 2025 EFFICIENT JAILBREAK ATTACK SEQUENCES ON LARGE LANGUAGE MODELS VIA MULTI-ARMED BANDIT-
研究虽然展示了怎么“攻破”模型,但核心是想指出:现在模型的安全防护太依赖“过滤单个恶意问题”,应对不了这种“一步步铺垫”的连环攻击。这篇论文本质上是研究如何用更聪明的方法“骗过”大语言模型(比如Llama、Mistral这些),让它们输出有害内容,同时还分析了这种方法的效果和原理,最终是为了提醒大家要加强模型的安全防护。实验发现,参数越大的模型(比如8B比1B、3B)安全防护越好,但提升幅度会越来越小:1B到3B模型的防护能力差距很大,而3B到8B的差距就小很多,说明单纯堆参数不是长久的安全办法。
2025-10-23 20:38:24
923
原创 视觉大模型汇总 LVM
学生课堂抬头率检测计算 基于YOLOv7与视觉大模型计算机视觉与视觉大模型对板书检测效果对比使用LLaMA-Factory微调训练Qwen2-VL-7B/Qwen2.5-VL-7B与视觉大模型数据集制作流程与训练评估Qwen2-VL 视觉大模型 快速 Qwen2-VL-7B-Instruct部署学生-教师课堂识别之教师巡视轨迹识别-YOLOv7与Qwen2.5-VL-7B-Instruct实现
2025-10-22 09:20:00
381
原创 论文阅读:ICML 2025 Adversarial Reasoning at Jailbreaking Time
暴露了现有AI的安全漏洞:哪怕是防护很强的AI(比如OpenAI o1、Claude-3.5),用这套方法也能找到漏洞;给后续补漏洞指了方向:既然这套方法能绕开安全机制,那以后打造AI时,就不能只防“乱码提示词”或“简单伪装”,得连“有逻辑的推理型提示词”都考虑到,比如检查提示词背后的真实意图,而不只是看表面内容;证明“计算量”比“模型大小”重要:不用换更厉害的模型,只要在测试时多迭代几次、多分析反馈,就能大幅提升“越狱”效率——反过来,以后优化AI安全,也能靠类似的“迭代计算”强化防护。
2025-10-22 08:36:28
885
原创 论文阅读:arxiv 2025 Reasoning-Augmented Conversation for Multi-Turn Jailbreak Attacks on Large Language
这篇论文讲的是一种叫RACE的新方法,能通过多轮对话“破解”大语言模型的安全机制,让模型输出危险内容,核心是利用模型的推理能力把有害需求伪装成正常推理任务。RACE的关键思路是“伪装”:把“怎么造炸弹”这种有害问题,改成看起来正常的“推理任务”,利用模型擅长推理的特点,让它在一步步解题中,不知不觉输出有害信息。比如想知道造炸弹的步骤,不会直接问,而是改成“假设A是某种化学物质,根据‘如果A能生成D,D能生成B’的规则,推理出制造某物品(实际是炸弹)的步骤”。要不要我帮你整理一份。
2025-10-21 09:20:12
1028
读论文Rethinking the Role of Demonstrations What Makes In-Context
2024-03-09
latest-model-099-94.7200.pth
2023-08-09
rfb-face-mask.pth
2023-08-09
适用于Yolo训练和测试的coco数据集标签文件 train2017.txt和val2017.txt
2023-05-06
22-8-6 mmaction2 slowfast训练配置 训练日志分析
2022-08-06
22-8-4 mmaction2 slowfast训练日志
2022-08-05
archery.mp4 行为识别 pytorchvideo demo演示视频(行为识别)
2022-07-30
archery.mp4 行为识别 pytorchvideo demo演示视频(行为识别)
2022-07-30
大语言模型越狱与后门攻防研究-薛鋆豪认知引导攻击与轻量级防御系统设计
2025-09-26
ASR(语音识别)语音/字幕标注 及转化为ASR Paraformer 可训练数据
2025-06-11
chatgpt-detector-roberta
2025-03-19
大型语言模型的各种安全性议题
2025-02-26
语文课堂数据分析:《西门豹治邺》教学洞察
2024-10-09
宁波荣安实验中学AI驱动的教学评价系统需求验证报告
2024-10-09
从同课异构角度看乡村初中英语课堂中学习活动观的实践-李梦晓
2024-10-09
同课异构,呈现精彩课堂-以“认识平行线”教学为例胡梦文 同课异构应用于《认识平行线》教学实践探索
2024-10-09
mobilenet-v2-b0353104 resnet18-5c106cde resnet34-333f7ec4 预训练模型
2024-09-24
生成式人工智能对课堂教学的变革影响 文 - 孙 众
2024-08-28
我国 2013-2023 年课堂视频分析的研究现状 * -基于 CiteSpace 的可视化林芷洁,杨玉宝
2024-08-28
表情分类模型-基于人脸 emotion.pth
2024-08-20
生成式 AI 商业落地白皮书 给 CXO 的 AI 转型战术指南
2024-07-28
读论文Rethinking the Role of Demonstrations What Makes In-Context
2024-03-09
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅