CSPhD-winston-杨帆
合作:winstonyf@qq.com 暨大博士生 川师大研究生 前成都东软教师
展开
-
论文阅读:2023 EMNLP LLMDet:A Third Party Large Language Models Generated Text Detection Tool
是一个第三方大语言模型生成文本检测工具,其核心思想是利用从指定语言模型中采样的n-gram概率来计算大语言模型的代理困惑度(proxy perplexity),并将代理困惑度作为特征来训练文本分类器,以此识别文本的生成来源(如大语言模型生成或人类编写)。该工具包含两个主要阶段:字典构建和文本检测。文本检测阶段可供工具用户作为第三方在不持有模型的情况下进行文本检测。论文提出的LLMDet是一种特定于模型的、安全高效且可扩展的第三方大语言模型生成文本检测工具,主要包含字典构建和文本检测两个核心组件。原创 2025-03-21 23:37:22 · 657 阅读 · 0 评论 -
论文阅读:2023 arxiv Multiscale Positive-Unlabeled Detection of AI-Generated Texts
这个GitHub项目主要围绕AI生成文本的多尺度正无标签(Positive-Unlabeled, PU)检测展开,其核心目标是开发能够准确识别AI生成文本的检测器。原创 2025-03-22 09:50:45 · 511 阅读 · 0 评论 -
论文阅读:2023 ACL Robust Multi-bit Natural Language Watermarking through Invariant Features
GitHub 项目主要聚焦于自然语言处理(NLP)中的文本水印技术,旨在开发一个安全的水印系统,以保障自然语言内容的版权,实现泄漏追踪和所有权识别。提出了一种通过不变特征实现鲁棒多位自然语言水印的方法,旨在解决自然语言内容版权保护问题。该方法主要包括水印嵌入和提取过程,以及为提高鲁棒性所采取的一系列策略。原创 2025-03-22 10:08:26 · 474 阅读 · 0 评论 -
论文阅读:2023 arxiv Provable Robust Watermarking for AI-Generated Text
该项目与论文相关,仓库中包含了论文所涉及方法的具体实现代码。同时,还提供了一个方便用户体验。原创 2025-03-22 10:20:26 · 910 阅读 · 0 评论 -
论文阅读:2024 arxiv Imitate Before Detect: Aligning Machine Stylistic Preference for Machine-Revised Tex
该项目致力于研究和实现机器修改文本的检测方法,可能涉及到自然语言处理、机器学习和深度学习等技术,以提高对机器生成或修改文本的识别能力。原创 2025-03-22 12:19:47 · 571 阅读 · 0 评论 -
论文阅读:2023 EMNLP SeqXGPT: Sentence-level AI-generated text detection
项目名称:SeqXGPT项目描述:这是论文的官方代码仓库。开源资源:包含了与SeqXGPT相关的所有数据集、模型、训练和测试代码。原创 2025-03-21 20:50:11 · 682 阅读 · 0 评论 -
论文阅读:2022 arxiv CoCo: Coherence-Enhanced Machine-Generated Text Detection Under Data Limitation With
该项目旨在解决低资源条件下机器生成文本的检测问题,通过对比学习增强文本的连贯性,从而提高检测的准确性。原创 2025-03-21 20:20:52 · 880 阅读 · 0 评论 -
论文阅读:2024 ICLR Fast-detectgpt: Efficient zero-shot detection of machine-generated text via condition
ICLR 2024论文“Fast-DetectGPT: Efficient Zero-Shot Detection of Machine-Generated Text via Conditional Probability Curvature”的代码,旨在通过条件概率曲率实现高效的零样本机器生成文本检测。原创 2025-03-20 11:50:05 · 193 阅读 · 0 评论 -
论文阅读:2024-NAACL Semstamp、2024-ACL (Findings) k-SemStamp
GitHub代码和对应论文均围绕基于水印的AI生成文本检测展开。原创 2025-03-20 10:50:58 · 498 阅读 · 0 评论 -
论文阅读:2023-arxiv How Close is ChatGPT to Human Experts? Comparison Corpus, Evaluation, and Detection
ChatGPT自推出以来,在学术和工业领域都受到了广泛关注。它能有效回答各类问题,答案流畅又全面,在安全性和实用性上远超以往的公共聊天机器人。一方面,人们好奇ChatGPT为何能力这么强,与人类专家相比差距有多大;另一方面,人们也担心像ChatGPT这样的大语言模型会带来潜在负面影响,比如产生假新闻、抄袭,甚至影响社会安全等问题。原创 2025-03-19 13:24:13 · 293 阅读 · 0 评论 -
论文翻译:EACL-2024.Leak, Cheat, Repeat: Data Contamination and Evaluation Malpractices in Closed-Source
自然语言处理(NLP)研究越来越多地关注大型语言模型(LLMs)的使用,其中一些最受欢迎的模型要么完全闭源,要么部分闭源。由于缺乏对模型细节的访问,尤其是关于训练数据的细节,研究人员反复对数据污染表示担忧。尽管已经有人尝试解决这一问题,但这些尝试仅限于轶事证据和试错。此外,它们忽视了间接数据泄露的问题,即模型通过使用来自用户的数据进行迭代改进。在这项工作中,我们对使用OpenAI的GPT-3.5和GPT-4(当今最突出使用的LLMs)的工作进行了首次系统分析,研究数据污染问题。原创 2024-12-06 09:49:52 · 645 阅读 · 0 评论 -
Leak, Cheat, Repeat: Data Contamination and Evaluation Malpractices in Closed-Source LLMs
这篇论文聚焦于当前自然语言处理(NLP)领域中大规模语言模型(LLMs)的使用问题,尤其是一些受欢迎但不完全开源的模型(比如 GPT-3.5 和 GPT-4)。研究人员对这些模型的训练数据了解有限,这导致了“数据污染”(Data Contamination)的问题,即模型可能在训练时接触到后来用于评估它们表现的测试数据。论文首次系统性地分析了这一问题,研究了 255 篇学术论文,发现这些模型在发布后一年内暴露于约 470 万个样本的数据中。原创 2024-12-07 13:37:48 · 729 阅读 · 0 评论 -
论文阅读:TreeEval: Benchmark-Free Evaluation of Large Language Models through
论文提出了一种名为TreeEval的新方法,用来评价大语言模型(LLMs)的性能。与传统评价方法不同,TreeEval 不依赖事先构建的基准测试数据,这样可以避免基准数据被泄露的问题。TreeEval 的核心思路是:让一个高性能的语言模型自己设计一个“考核流程”,它会根据现有情况生成一系列问题,像“面试官”一样有目标地调整问题的难度,确保评价过程高效且全面。通过实验,TreeEval 展现了优秀的评价能力,仅用约 45 个问题就得到了和其他高标准方法(如 AlpacaEval2.0)高度一致的结果。原创 2024-12-14 01:18:45 · 511 阅读 · 0 评论 -
论文阅读:FACTOOL: Factuality Detection in Generative AI -- A Tool Augmented Framework for Multi-Task and
这个方法厉害在能处理各种类型的任务,从查百科知识到检查代码运行,甚至能揪出论文里的假引用。实验显示,用GPT-4驱动的FACTOOL在多数情况下比AI自我检查更靠谱,特别是在查文献和代码时准确率超过90%。作者提出了一种叫做FACTOOL的工具,专门用来检查AI生成内容(比如ChatGPT的回答)中的事实错误。这个方法就像给AI装了个“事实检查员”,能自动发现AI可能胡编乱造的内容。:最后用AI自己(比如GPT-4)来对比证据和原内容,判断哪里说错了。:先把AI生成的长篇大论拆解成一个个小事实点。原创 2025-02-28 19:18:06 · 946 阅读 · 0 评论 -
论文阅读:Merging Facts, Crafting Fallacies: Evaluating the Contradictory Nature of Aggregated Factual Cl
问题背景大型语言模型(LLMs)能生成长文本(如人物传记),但这些文本可能混杂事实与非事实内容。例如,模型可能正确引用两个不同人物的正确信息,但组合在一起会让读者误以为是同一个人,导致整体内容不真实。现有方法的缺陷当前评估方法(如FActScore)会将长文本拆分为独立事实逐一验证,并假设“所有事实正确=整体正确”。但作者发现,实体歧义(如相同名字对应不同人物)会导致模型生成“看似全对、实则误导”的段落。模型生成:“张三生于1990年,2020年去世。原创 2025-03-02 01:22:45 · 510 阅读 · 0 评论 -
论文阅读:2025 SCI 1区 The Imitation Game revisited: A comprehensive survey on recent advances in AI-gener
近年来,人工智能生成文本检测(AIGTD)受到了越来越多的关注,人们提出了许多新颖的方法。然而,目前大多数关于这个主题的综述内容比较零散、缺乏连贯性,没有一个统一全面的框架来帮助人们理解。本文全面分析和总结了这个快速发展领域的最新进展和重要技术。为了做到这一点,本文提出了一种全新的、综合的多层次分类法,用于对AIGTD方法进行分类。现有的研究大致可以分为三个方向,分别应对分类器训练、内在属性和信息嵌入这三个关键挑战。原创 2025-03-07 10:37:57 · 36 阅读 · 0 评论 -
论文阅读: 2025 中科院4区 Human vs. Machine: A Comparative Study on the Detection of AI-Generated Content
这篇论文主要研究如何检测阿拉伯语中由大语言模型(LLMs)生成的文本,也就是“DeepFake文本”。随着LLMs技术发展,合成文本越来越像人类写的,这引发了对内容真实性的担忧,所以研究检测方法很有必要。原创 2025-03-07 10:45:50 · 290 阅读 · 1 评论 -
论文阅读:2025 中科院2区 A survey on LLM-generated text detection: Necessity, methods, and future directions
大语言模型(LLMs)有着强大的理解、阐释和生成复杂语言的能力,这使得大语言模型生成的文本迅速融入到人们日常生活的方方面面,并且越来越被用户所接受。打个比方,现在很多人写文章、回答问题,甚至创作故事,都会借助像ChatGPT这样的大语言模型,生成的内容也能满足很多场景的需求。然而,人们对大语言模型的依赖程度越来越高,这就迫切需要有效的检测机制来识别哪些文本是由大语言模型生成的。就好比在考试中,如果有人用大语言模型作弊,就需要有办法识别出来;原创 2025-03-09 18:09:16 · 36 阅读 · 0 评论 -
论文阅读:2024-arxiv Detection of Machine-Generated Text: Literature Survey
因此,由语言模型而非人类作者生成的作品获得了大量媒体关注,并引发了关于高级语言模型对社会可能产生的影响的讨论,这需要我们对这些过程有更全面的了解。为了减轻使用这些模型可能带来的危险后果,必须采取预防措施,例如通过自动化系统和可能的逆向工程语言模型,赋予人类操作者区分人工生成文本和人类创作文本的能力。它还对机器生成文本的趋势进行了概述,并探讨了其更广泛的社会影响。最终,本综述旨在通过探索语言模型的能力及其可能影响之间的相互作用,为解决与机器生成文本的使用和检测相关的问题,开发出稳健且有效的解决方案做出贡献。原创 2025-03-11 09:44:00 · 116 阅读 · 0 评论 -
论文阅读:2024-arxiv Are AI Detectors Good Enough? A Survey on Quality of Datasets With Machine-Generated
在本文中,我们强调了评估生成数据的稳健性和高质量方法的必要性,以确保未来模型的抗偏见性和泛化能力。此外,我们还探讨了利用高质量生成数据实现两个目标的可能性:一是改进检测模型的训练,二是提升训练数据集本身的质量。我们的贡献旨在促进对人类文本与机器文本之间动态关系的更好理解,这最终将支持在日益自动化的世界中维护信息的完整性。代码可在以下链接获取。然而,在实际应用中,这些检测器的表现往往会大幅下降,这引发了疑问:检测器是否真的值得信赖,还是其高基准分数仅仅源于评估数据集的质量不佳?原创 2025-03-11 09:52:23 · 126 阅读 · 0 评论 -
论文阅读:2024-arxiv Detecting AI Generated Text Based on NLP and Machine Learning Approaches
自然语言处理(NLP)的最新进展可能使人工智能(AI)模型在未来能够生成与人类书写形式完全相同的文本。此外,我们的研究结果表明,BERT在识别由AI生成的信息与人类提供的信息方面优于以往的模型。我们在对相关研究的评估中提供了对当前AI生成文本识别现状的全面分析。我们的测试取得了积极的结果,表明我们的策略是成功的,BERT模型是最有可能的解决方案。我们还分析了该研究的社会影响,强调了其对各行业的潜在益处,同时探讨了与伦理和环境相关的可持续性问题。BERT模型在本研究中提供了最高的准确率,达到93%。原创 2025-03-11 10:02:47 · 154 阅读 · 0 评论 -
论文阅读:2023-arxiv Towards Possibilities & Impossibilities of AI-generated Text Detection: A Survey
大语言模型(LLMs)凭借其生成类人文本回复的卓越能力,彻底改变了自然语言处理(NLP)领域。例如,ChatGPT能针对各种问题给出连贯回答,吸引了大量用户。然而,这也带来了诸多问题。已有研究表明,大语言模型可能被滥用,比如传播错误信息、制造假新闻、在学术领域用于抄袭,还会污染网络内容。像是可能会出现用大语言模型生成假的产品评论,误导消费者,损害企业利益的情况。为解决这些问题,研究界达成共识,要开发检测人工智能生成文本的算法。原创 2025-03-13 23:09:59 · 23 阅读 · 0 评论 -
论文阅读:2025 ACL workshop SilverSpeak: Evading AI-Generated Text Detectors using Homoglyphs
大语言模型(LLMs)发展起来后,它生成的文本越来越像人写的了。判断一段文本是不是AI生成的非常重要,所以有好多研究都在开发可靠的AI生成文本检测工具。这些工具在测试数据上效果看着不错,但最近的研究发现,用一些方法就能绕过它们。在这篇论文里,作者提出了一种利用同形异义字符(比如把拉丁字母‘A’换成西里尔字母‘A’)的攻击手段,来绕过现有的检测工具。作者在5个不同的数据集上,对7种检测工具(像ArguGPT、Binoculars、DetectGPT等)进行了全面测试,看看这种攻击手段效果怎么样。原创 2025-03-15 10:02:10 · 875 阅读 · 0 评论 -
论文阅读:2023 EMNLP Hidding the Ghostwriters: An Adversarial Evaluation of AI-Generated Student Essay De
大语言模型(LLMs)在文本生成任务方面展现出了超强的能力。比如说,你让它写一篇关于环保的文章,它能很快就生成内容,而且看起来还挺像回事儿。但是用这些模型也有不少风险,像是抄袭、传播假新闻,在教育场景里还会出问题。就好比有的学生写作文不自己思考,直接用大语言模型生成,然后当成自己的作业交上去。为了解决这些问题,有人提出了一些检测工具,用来识别是不是AI生成的内容。但这些工具在面对一些干扰手段时,效果到底怎么样,尤其是在检测学生作文的时候,还没怎么被研究过。这篇论文就是想填补这个空白。原创 2025-03-15 10:54:30 · 759 阅读 · 1 评论 -
论文阅读:2024-arxiv Investigating the Influence of Prompt-Specific Shortcuts in AI Generated Text Detect
AI生成文本(AIGT)检测器是通过人类文本和大语言模型(LLMs)在常见任务中生成的文本来开发的。虽然有很多合适的提示词可以选择,但这些数据集通常是基于有限数量的提示词构建的。提示词变化的缺乏会引入特定提示词的捷径特征,这些特征在使用所选提示词收集的数据中存在,但不能推广到其他提示词的数据上。在本文中,作者分析了这类捷径在AIGT检测中的影响。作者提出了基于反馈的对抗指令列表优化(FAILOpt)方法,这是一种利用特定提示词捷径来寻找能欺骗AIGT检测器指令的攻击方法。原创 2025-03-15 11:07:57 · 36 阅读 · 0 评论 -
论文阅读:2024-arxiv Detecting Document-level Paraphrased Machine Generated Content: Mimicking Human Writ
随着大语言模型(LLMs)高质量API的出现,机器生成内容(MGC)越来越多。这带来了诸如学术抄袭、错误信息传播等问题。目前的MGC检测工具通常只关注表面信息,忽略了隐含和结构特征,很容易被表面的句子模式欺骗,在检测长文本和改写后的文本时效果不好。为了解决这些问题,作者提出了新的方法和数据集。除了公开的Plagbench数据集,还利用GPT和话语改写工具DIPPER,扩展原始版本的数据集,开发了改写的长文本问答(paraLFQA)和改写的写作提示(paraWP)数据集。原创 2025-03-15 11:22:08 · 44 阅读 · 0 评论 -
论文阅读:2024 CONF-MPCS AI-Generated Text Detection and Classification Based on BERT Deep Learning Algor
随着深度学习技术快速发展和广泛应用,AI生成文本检测在各个领域的作用越来越重要。本文基于BERT算法开发了一种高效的AI生成文本检测模型,为解决相关问题提供了新思路和方法。在数据预处理阶段,作者对文本进行了一系列处理。比如,把文本中的所有字母都转换成小写,像“Hello”变成“hello”,这样能避免因为大小写不同而被当成不同的词;进行分词,把一句话拆分成一个个单独的词,例如“我喜欢苹果”拆分成“我”“喜欢”“苹果”;去除像“the”“is”这类没有实际意义、经常出现的停用词;原创 2025-03-15 11:28:31 · 41 阅读 · 0 评论 -
论文阅读:2024 EMNLP Findings Authorship Obfuscation in Multilingual Machine-Generated Text Detection
近年来,大语言模型(LLMs)具备了高质量的文本生成能力,这引发了人们对其被滥用的担忧,比如可能被用于大量生成和传播虚假信息。为了应对这类威胁,检测机器生成文本(MGT)就显得非常重要。然而,MGT检测很容易受到作者身份混淆(AO)方法的影响,像释义改写这种AO方法,就可能让MGT逃过检测。到目前为止,相关研究仅在单语环境下进行评估,所以最近提出的多语言检测器对AO方法的敏感性还不清楚。本文填补了这一空白,全面测试了10种知名AO方法的性能。原创 2025-03-15 09:41:27 · 22 阅读 · 0 评论 -
论文阅读 2024 COLING CCFB Humanizing Machine-Generated Content: Evading AI-Text Detection through Advers
随着大语言模型(LLMs)的发展,在应对虚假信息传播、知识产权保护、学术剽窃预防等恶意使用场景时,判断一段文本是否由机器生成变得越来越困难。虽然训练良好的文本检测器在未知测试数据上表现出不错的性能,但近期研究发现,当遇到像释义改写这样的对抗攻击时,这些检测器存在漏洞。本文提出了一个更广泛的对抗攻击框架,目的是对机器生成的内容进行微小改动,使其能逃避检测。作者考虑了白盒和黑盒两种攻击场景,并在动态场景中采用对抗学习的方法,来评估当前检测模型抵御此类攻击的鲁棒性是否能得到提升。原创 2025-03-15 01:13:43 · 28 阅读 · 0 评论 -
论文阅读:2024-arxiv ESPERANTO: EVALUATING SYNTHESIZED PHRASES TO ENHANCE ROBUSTNESS IN AI DETECTION FOR
大型语言模型(LLMs)在各个领域都展现出了显著的实用价值。比如说在翻译、文本分类、聊天机器人和虚拟助手等方面,它都能很好地发挥作用。但与此同时,它也容易被用于不道德的目的,像学术不端行为(比如学生用它写论文来作弊)以及传播错误信息(例如编造虚假新闻)。为了应对这种情况,就出现了人工智能生成文本的检测系统,用来区分文本是由人工智能生成的还是人类创作的。然而,这些检测机制存在一些问题。一方面,它们很容易被一些逃避检测的技术绕过;原创 2025-03-14 23:18:30 · 21 阅读 · 0 评论 -
论文阅读: 2024 AAAI OUTFOX: LLM-Generated Essay Detection Through In-Context Learning with Adversarially
大语言模型(LLMs)如今在文本生成方面达到了和人差不多的流畅程度,这就导致人们很难分辨出到底是人类写的文本,还是大语言模型生成的。比如说,学生写作业时用大语言模型生成内容,老师可能都发现不了。这种情况使得大语言模型被滥用的风险越来越高,所以就很有必要开发能识别大语言模型生成文本的检测器。但现在已有的检测器不太靠谱,遇到一些简单的攻击就不行了。就像把大语言模型生成的文本换个说法(也就是改写、释义,paraphrasing),检测器的检测准确率就会下降。原创 2025-03-14 20:49:40 · 37 阅读 · 0 评论 -
论文阅读:2024 ACL Findings Spotting AI‘s Touch: Identifying LLM-Paraphrased Spans in Text
随着强大的语言模型逐渐接近人类的文本生成水平,人工智能生成文本的检测受到了越来越多的关注。然而,目前针对(部分)人工智能改写文本的检测研究较少。实际上,人工智能改写在很多场景中被广泛应用,用来优化文本、增加文本多样性。为此,本文提出了一种全新的检测框架——改写文本跨度检测(PTD),目的是识别文本中被改写的部分。与文本层面的检测不同,PTD会对整篇文本进行分析,给每个句子都打上一个分数,这个分数能体现该句子的改写程度。本文构建了一个专门用于改写文本跨度检测的数据集PASTED。原创 2025-03-14 20:37:13 · 18 阅读 · 0 评论 -
论文阅读:2023 中科院 1区 Paraphrasing evades detectors of AI-generated text, but retrieval is an
随着大语言模型被恶意利用的情况增多,比如制造虚假内容、学术抄袭等,人们开始研究识别AI生成文本的方法,像水印检测、异常检测等。不过,这些检测算法面对AI生成文本的改述时,效果如何还不清楚。为了测试这些检测器的可靠性,作者构建了一个有110亿参数的改述生成模型DIPPER。这个模型很厉害,它能结合上下文对段落进行改述,还能控制用词的多样性和内容的顺序。原创 2025-03-14 20:24:25 · 768 阅读 · 0 评论 -
论文阅读:SCI 1区 RADAR: Robust AI-Text Detection via Adversarial Learning
如今,大语言模型(LLMs)发展迅速,像ChatGPT这类应用也越来越火,这使得人类和机器生成高质量文本之间的界限变得模糊不清。想象一下,你收到一篇文章,很难判断它到底是一个知识渊博的人写的,还是机器创作出来的。这种情况带来了不少问题,比如有人可能利用机器生成虚假内容、抄袭,或者误判,冤枉那些无辜的创作者。就好比在学校里,老师布置了作文作业,有些学生可能用大语言模型写作文,欺骗老师,这对其他认真写作的学生不公平;还有在新闻领域,虚假的AI生成新闻可能误导大众。原创 2025-03-14 17:30:34 · 69 阅读 · 1 评论 -
论文阅读:2023-arxiv Can AI-Generated Text be Reliably Detected?
大语言模型(LLMs)在文档完成、问答等各种应用中表现出色。以ChatGPT为例,它能像人一样编写计算机程序代码、创作歌词、完成文档以及回答问题。然而,这些模型存在被滥用的风险,比如用于抄袭、制造假新闻和发送垃圾邮件等,这引发了人们对合理使用它们的担忧。因此,可靠地检测人工智能生成的文本成为了一个关键的研究领域。近期的研究尝试通过多种方法来解决这个问题,例如识别生成文本输出中的模型特征,以及应用水印技术来检测人工智能生成的文本。在特定的设置下,这些检测方法是有效的。在本文中,原创 2025-03-14 15:57:25 · 92 阅读 · 0 评论 -
论文阅读:2024 ACL Are AI-Generated Text Detectors Robust to Adversarial Perturbations?
大语言模型(LLMs)被广泛应用,它们生成的文本和人类写的很像,这就引发了人们对AI生成文本可能被滥用的担忧。比如在假新闻传播、学术造假、性别偏见等方面,AI生成文本都可能带来不良影响。目前的AI生成文本(AIGT)检测器在面对对抗性扰动时不够稳健,像改个单词或者换个字符这种小变化,就可能让检测器把AI生成的文本误判成人类写的,或者反过来。本文研究了现有AIGT检测方法的稳健性,还提出了一种新的检测器——连体校准重建网络(SCRN)。原创 2025-03-14 13:10:29 · 28 阅读 · 1 评论 -
论文阅读: 2024 JCR Q1区 Survey on AI-Generated Plagiarism Detection: The Impact of Large Language Models
2023年,论文作者对3017名高中生和大学生进行了一项调查,发现近三分之一的学生承认在做作业时使用ChatGPT寻求帮助。像ChatGPT和Gemini这样的大语言模型(LLMs)兴起,导致学术不端行为激增。如今学生只需向大语言模型询问给定问题的答案,就能完成作业和考试,而无需付出学习所需的努力。更令人担忧的是,教育工作者没有合适的工具来检测这种行为。人工智能工具越先进,生成的文本就越像人类写的,也就越难被检测出来。此外,一些教育工作者发现,很难调整教学和评估方法来避免抄袭。原创 2025-03-14 01:31:12 · 23 阅读 · 0 评论 -
大模型安全相关研究
翻译:arXiv-2023 PromptRobust: Towards Evaluating the Robustness of Large Language Models on原创 2024-09-11 10:19:33 · 388 阅读 · 0 评论 -
论文阅读:arXiv-2023.Rethinking Benchmark and Contamination for Language Models with Rephrased Samples
论文主要讨论了大规模语言模型(LLM)在训练时可能“污染”基准数据的问题。污染是指模型在训练数据中见过了测试题目或其改写版本,导致测试结果不能真实反映模型的能力。现有的去污染方法(例如基于字符串匹配的n-gram方法)不够精准,简单的改写或翻译测试数据就能绕过这些方法。通过对测试数据进行改写训练,13B的模型可以在MMLU等基准测试中取得非常高的分数(接近GPT-4的水平),但这些高分可能是由于训练集和测试集的重叠。原创 2024-12-18 09:59:58 · 8 阅读 · 0 评论 -
【论文】学生课堂行为数据集:视频识别检测说明课堂场景中的行为
摘要课堂视频数据的大量增加使得利用人工智能技术自动识别、检测和标注学生行为成为可能。这对于相关的研究,如教育学和教育心理学,都是有益的。然而,缺乏专门为学生课堂行为设计的数据集可能会阻碍这些潜在的研究。本文提出了一个全面的数据集,可用于识别、检测和标注学生在课堂上的行为。我们收集了11个教室、128个不同学科班级的视频。具体来说,所构建的数据集包括检测部分、识别部分和字幕部分。检测部分包含4542个样本的时间检测数据模块和3343个样本的动作检测数据模块,识别部分包含4276个样本,字幕部分包含4296个原创 2021-05-23 17:06:25 · 83 阅读 · 0 评论