
大模型
文章平均质量分 95
这个专栏探讨了AI大模型在不同领域的应用,从医疗保健到金融、教育和媒体等多个领域。
我们将深入研究各种AI技术如机器学习、自然语言处理和计算机视觉的实际应用案例,帮助了解如何利用人工智能技术来解决实际问题,提高效率和创新。
是Yu欸
这里是我读博期间的笔记本,记录学习和成长,争取顺利毕业ing
展开
-
从泛读到精读:合合信息文档解析如何让大模型更懂复杂文档
随着deepseek等大模型逐渐步入视野,理论上文档解析工作应能大幅简化。然而,实际情况却不尽如人意。当前的多模态大模型虽然具备强大的视觉与语言交互能力,但在解析非结构化文档时,仍面临复杂版式、多元素混排以及严密逻辑推理等挑战。原创 2025-03-28 13:39:47 · 8523 阅读 · 91 评论 -
【服务器】在Linux查看运行的Python程序,并找到特定的Python程序
在Linux环境下,有时候需要查看当前运行的Python程序,并根据特定的参数或详细信息找到目标程序。这篇博客将介绍几种方法,帮助你快速定位和分析正在运行的Python程序。原创 2024-07-10 19:47:07 · 7782 阅读 · 49 评论 -
【职场心灵伴侣】文心一言智能体
名称:职场心灵伴侣我设置的智能体是一个温柔姐姐。简介:职场加油站提供温暖倾诉、减压技巧和职业建议,助你保持积极心态,充满动力,职场之路走得更远、更稳。原创 2024-05-24 16:35:20 · 2299 阅读 · 57 评论 -
【Gradio】Could not create share link
在开发和测试机器学习模型或数据科学应用时,我们经常使用Gradio这样的工具来创建快速、交互式的原型。Gradio允许我们通过简单的界面与模型进行交互,无需构建复杂的前端应用。去年的项目,重新部署运行Gradio时,我遇到如下的错误信息:> Running on local URL: http://0.0.0.0:9966Could not create share link. Please check your internet connection orour status page: h原创 2024-04-16 14:11:09 · 6326 阅读 · 38 评论 -
【ACL 2023-NER注入到PLM】数据集+实验解读:基于上下文学习的命名实体识别 Learning In-context Learning for Named Entity Recognitio
论文:Learning In-context Learning for Named Entity Recognition标题:基于上下文学习的命名实体识别作者:Jiawei Chen, Yaojie Lu, Hongyu Lin, Jie Lou, Wei Jia, Dai Dai, Hua Wu, Boxi Cao, Xianpei Han and Le Sun地址:[\[2305.11038\] Learning In-context Learning for Named Entity Recog原创 2024-03-21 20:04:17 · 7209 阅读 · 36 评论 -
【百度灵境矩阵实训营】操作指南
比赛时间:3月20日-3月27日,注意:审核需要预留1-2天时间,所以相当于25日截止!欢迎添加文末链接,获得更多参赛权益!使用专属参赛链接参赛,你将获得:开发上线即得阳光普照奖,新用户还可以领取精美礼品- 结营有礼:按照实训营要求参与相关课程并完成结营的同学,即可获得「百度灵境开发者」官方认证证书、参与高概率抽奖。- 新人福利:报名参与实训营,并按照作业要求提交上线有效智能体的新人开发者,即可瓜分千元新人福利奖品。- 官方权益:「灵境杯」大赛参赛指导及优先评审资格。原创 2024-03-20 22:39:24 · 8329 阅读 · 59 评论 -
【ACL2023获奖论文】比你想的更弱:对弱监督学习的批判性审视
在做论文工作时,发现一个问题:不清楚好的论文框架是什么样的,所以来拜读一下【ACL2023获奖论文】,提升一下品味今天阅读的是【ACL 2023获奖论文】主题论文奖:7.Weaker Than You Think: A Critical Look at Weakly Supervised Learning**标题**:比你想的更弱:对弱监督学习的批判性审视原创 2024-03-18 21:15:21 · 6867 阅读 · 32 评论 -
在探索创意中进一步了解生成式人工智能:PartyRock —— re:Invent 2023 产品测评
2023年,生成式人工智能(AI)多次成为热点话题。如果想在轻松有趣的环境中探索这一领域,并且想要亲手构建一些游戏,那么 PartyRock是一个很好的选择!这个平台提供了一个独特的实验空间,可以自由地进行尝试,学习生成式AI的关键技术和提示工程的精髓,无需编程基础就能开始AI创作之旅。PartyRock鼓励用户之间的互动和协作,除了可以在这里轻松构建迷你应用程序,还可以与朋友们分享创作的app。可以从别人共享的应用程序开始,通过调整和优化,将其变成自己独特的作品,增加了创作的乐趣。原创 2023-12-14 14:10:57 · 28525 阅读 · 121 评论 -
23REPEAT方法:软工顶会ICSE ‘23 大模型在代码智能领域持续学习 代表性样本重放(选择信息丰富且多样化的示例) + 基于可塑权重巩固EWC的自适应参数正则化 【网安AIGC专题11.22】
漏洞检测和代码克隆是代码智能领域中比较复杂的任务。这些任务往往涉及对细微差别的识别,比如在代码克隆检测中区分微妙的代码差异、或者在漏洞检测中识别潜在的安全风险。这些任务往往涉及对细微差别的识别,比如在代码克隆检测中区分微妙的代码差异、或者在漏洞检测中识别潜在的安全风险。然而,在实际场景中,新的代码仓库不断涌现,所携带的新知识有利于向开发者提供最新的代码智能服务。REPEAT方法提供了一系列值得借鉴的概念和技术,这些可以应用于NLP中的NER和关系抽取任务,以改进模型的持续学习能力、泛化能力和准确性。原创 2023-11-23 23:05:36 · 3828 阅读 · 5 评论 -
20源代码模型的数据增强方法:克隆检测、缺陷检测和修复、代码摘要、代码搜索、代码补全、代码翻译、代码问答、问题分类、方法名称预测和类型预测对论文进行分组【网安AIGC专题11.15】
本文在源代码的背景下全面分析了数据增强技术。本文首先阐述了数据增强的概念及其作用。然后,本文考察了源代码研究中常用的主要数据增强方法,并探讨了典型源代码应用程序和任务的增强方法。最后,本文总结了当前该领域面临的挑战,并提出了未来源代码研究的潜在方向。源代码模型是在大规模的源代码语料库上训练的,因此能够对给定代码片段的上下文表示进行建模。数据增强(Data augmentation, DA)技术旨在通过数据合成来增加训练样本的多样性,从而提高模型在各个方面的性能(例如,准确性和鲁棒性)。原创 2023-11-18 10:24:02 · 3810 阅读 · 3 评论 -
19ContraBERT:顶会ICSE23 数据增强+对比学习+代码预训练模型,提升NLP模型性能与鲁棒性:处理程序变异(变量重命名)【网安AIGC专题11.15】
大代码时代的到来使得目前有很多工作开始利用无监督学习,来通过大量的代码数据学习到通用的预训练模型,然后再针对不同的下游任务对预训练模型进行微调。这些预训练模型对不同的下游任务有比较强的泛化性,并且得到了广泛的使用。比如预训练模型CodeBert和GraphCodeBert都是在数据集codesearchnet上进行预训练的模型,然后在下游任务上进行微调,达到了优于监督学习的方法。原创 2023-11-16 23:56:09 · 4047 阅读 · 2 评论 -
16CODEIPPROMPT:顶会ICML’23 从GitHub到AI,探索代码生成的侵权风险与缓解策略的最新进展:训练数据`有限制性许可;模型微调+动态Token过滤【网安AIGC专题11.8】
代码语言模型已成为技术互动的基石。然而,这一进步带来了一个关键问题:知识产权侵犯。微软、Github和OpenAI共同诉讼案等情况突显了这个问题的紧迫性:因为它允许Copilot在不遵守许可条款的情况下复制许可代码在不知情的情况下无意中侵犯原创作品。然而,这也引发了关于知识产权(IP)侵权的担忧。CODEIPPROMPT包括两个关键组件:从受许可的代码数据库中构建的提示,以激发LMs生成侵犯IP的代码,以及用于评估代码LMs的IP侵权程度的测量工具。原创 2023-11-16 23:43:44 · 3525 阅读 · 0 评论 -
18LLM4SE革命性技术揭秘:大型语言模型LLM在软件工程SE领域的全景解析与未来展望 - 探索LLM的多维应用、优化策略与软件管理新视角【网安AIGC专题11.15】作者汇报 综述
> 本文汇总了大型语言模型(LLM)在软件工程(SE)领域的广泛应用,涵盖了从程序开发到软件维护,再到项目管理的每一个关键环节,揭示了LLM在这些领域中的革命性影响和未来发展潜力。> 随着LLM在软件工程中的深入应用,我们将探讨这些模型如何彻底改变软件开发的面貌,提高开发效率,以及未来可能带来的更多机遇和挑战。我们将深入分析LLM在需求工程、软件设计、质量保证等多个阶段的关键作用,以及在软件管理中的创新应用。> 通过阅读这篇博文,您将获得对LLM在软件工程实践中的应用、挑战和优化方向的全面理解。原创 2023-11-17 00:28:37 · 5906 阅读 · 3 评论 -
【网安专题10.25】10 TitanFuzz完全自动化执行基于变异的模糊测试:生成式(如Codex)生成种子程序,逐步提示工程+第一个应用LLM填充模型(如InCoder)+差分测试
TitanFuzz:第一个应用填充模型(例如InCoder)直接执行基于变异的模糊测试使用大型预训练语言模型进行深度学习库的模糊测试背景深度学习库(TensorFlow和Pytorch)中的bug对下游任务系统是重要的,保障安全性和有效性。在深度学习(DL)库的模糊测试领域,直接生成满足输入语言(例如Python)语法/语义和张量计算的DL API输入/形状约束的深度学习程序具有挑战性。此外,深度学习API可能包含复杂的输入条件约束,难以在没有人工干预的情况下生成符合条件的输入用例。解决方案。原创 2023-11-08 09:31:48 · 7041 阅读 · 12 评论 -
【网安AIGC专题10.25】9 LIBRO方法(ICSE2023顶会自动化测试生成):提示工程+查询LLM+选择、排序、后处理(测试用例函数放入对应测试类中,并解决执行该测试用例所需的依赖)
主要内容:测试生成技术、软件缺陷重要性、已有技术的局限性以及LIBRO方法的应用和有效性。测试生成技术:提高测试覆盖率Increase coverage生成探索性输入Generate exploratory inputs未能满足更多的语义目标,如生成用于复现特定bug报告的测试用例 fall short of achieving more semantic objectives, e.g., generating tests to reproduce a given bug report。原创 2023-11-07 11:56:56 · 5955 阅读 · 4 评论 -
【网安AIGC专题11.1】11 Coreset-C 主动学习:特征选择+11种采样方法+CodeBERT、GraphCodeBERT+多分类(问题分类)二元分类(克隆检测)非分类任务(代码总结)
本文的研究弥合了主动学习在代码模型中的应用的研究空白,并提供了有关特征选择方法的有用见解。作者还强调了主动代码学习的限制,特别是在代码摘要任务中的有效性。这项研究对于改进代码模型的训练过程具有重要意义,特别是在预算有限的情况下。原创 2023-11-06 19:43:57 · 5836 阅读 · 11 评论 -
【2023】COMAP美赛数模中的大型语言模型LLM和生成式人工智能工具的使用
如果没有公开、明确地引用和参考人工智能工具的作用,很可能会发现有问题的段落和工作被认定为抄袭并被取消资格。如果团队选择使用人工智能,在报告结束后,添加一个名为“AI使用情况报告”的新部分。值得注意的是,LLM和生成式人工智能有其局限性,无法取代人类的创造力和批判性思维。值得注意的是,LLM 不仅可以帮助学生生成代码,还可以通过创建代码解释(可用作代码理解练习)来帮助学生理解代码。当我们发现提交的作品可能是在未公开使用此类工具的情况下准备的,COMAP将采取适当行动。,从而使代码理解成为一项更加重要的技能。原创 2023-11-06 18:06:37 · 6691 阅读 · 4 评论 -
【网安AIGC专题11.1】论文13:理解和解释代码,GPT-3大型语言模型&学生创建的代码解释比较+错误代码的解释(是否可以发现并改正)
本文通过让学生创建代码解释,然后对比评估他们同伴的代码解释以及GPT-3 创建的代码解释。实验发现:1、学生和 LLM 创建的代码解释在感知长度和实际长度上没有差异2、但学生对GPT-3 创建的代码解释的准确性和可理解性的评价都更高。3、此外,我们发现学生更喜欢详细的解释,而不是简明扼要的高层次解释。4、LLM 创建的代码解释对练习代码阅读和解释的学生很有益处。理解和解释代码的能力是计算机科学专业学生需要培养的一项重要技能。原创 2023-11-05 20:01:18 · 5540 阅读 · 0 评论 -
【网安AIGC专题10.11】2 ILF利用人类编写的 自然语言反馈 来训练代码生成模型:自动化反馈生成+多步反馈合并+处理多错误反馈+CODEGEN -M ONO 6.1 B model
近年来,预训练的大语言模型(如GPT)在自然语言处理任务中取得了显著的成果。通过预训练大语言模型,我们可以利用其强大的语言建模能力来生成代码,提高代码生成的质量和效率。原创 2023-10-27 22:34:07 · 5730 阅读 · 12 评论 -
AI与Prompt:解锁软件开发团队的魔法咒语,在复杂任务上生成正确率更高的代码
作为一个充满冒险精神的玩家,我希望能够玩一个打砖块游戏,在游戏中我能够控制一个角色从起点开始,穿越各种障碍物,达到终点,以便能够体验刺激和具有挑战性的旅程。该框架首先为三个不同角色的大型语言模型分配任务,包括分析员(analyst,负责需求分析)、程序员(coder,负责编写代码)、测试员(tester,负责检验效果),然后通过软件开发方法(SDM)规定了这些角色之间的交互方式。通过角色指令,使多个大型语言模型扮演不同的角色,组成软件开发团队,在无需人类参与的情况下以合作和交互的方式完成代码生成任务。原创 2023-10-27 19:56:48 · 6036 阅读 · 2 评论 -
三篇论文:速览GPT在网络安全最新论文中的应用案例
日常生活中,我个人也经常使用GPT技术。但与此同时,一些行业的大佬们已经将GPT应用代码生成旨在生成符合特定规范、满足人类需求的代码,以提高软件开发效率和质量,甚至推动生产模式的转变。本研究提出了一种自协作框架,使大型语言模型(LLM,例如ChatGPT)能够应对复杂的代码生成任务。该框架首先为三个不同角色的大型语言模型分配任务,包括分析员(analyst,负责需求分析)、程序员(coder,负责编写代码)、测试员(tester,负责检验效果),然后通过软件开发方法(SDM)规定了这些角色之间的交互方式。原创 2023-10-27 17:57:06 · 6756 阅读 · 16 评论 -
【网安AIGC专题10.25】8 CoLeFunDa华为团队:静默漏洞检测(识别+多分类)+数据增强、样本扩充+对比学习+微调+结果分析(降维空间,分类错误样本归纳,应用场景优势,有效性威胁分析)
`华为团队发表于ICSE’23`的 CoLeFunDa:Explainable Silent Vulnerability Fix Identification《CoLeFunDa:可解释的静默漏洞修复识别》论文:https://xing-hu.github.io/assets/papers/icse23colefunda.pdf分享重点突出,对流程图介绍清晰,比直接看论文更容易理解PPT清晰明了,浅蓝`#2290FC`色好正,看着很舒服hh## 论文主要贡献提出了一个框架CoLeFunDa,原创 2023-10-27 15:50:50 · 5607 阅读 · 0 评论