大语言模型
文章平均质量分 69
ybdesire
Talk is cheap. Show me the code.
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
7种python常见漏洞与大模型检测思路
vulnhuntr通过提示词和静态代码阅读来检测漏洞的细节思路原创 2025-10-18 23:30:00 · 591 阅读 · 0 评论 -
大模型问答之时间语义解析方案调研
NLP中的时间语义解析方案调研与实测原创 2025-10-03 23:30:00 · 1287 阅读 · 0 评论 -
Qwen3技术之模型后训练
4阶段训练与蒸馏原创 2025-09-20 23:15:00 · 739 阅读 · 0 评论 -
解读“2025年OWASP大模型十大安全风险”与相关攻击案例
本文总结2025年最新的OWASP 的《大规模语言模型应用 Top 10》原创 2025-09-02 23:30:00 · 1567 阅读 · 0 评论 -
大模型四种常见安全问题与攻击案例
本文对promptfoo给出的四种安全问题做了详细解读,并给出对应案例。原创 2025-08-23 23:30:00 · 1602 阅读 · 0 评论 -
Qwen3技术之模型预训练
本文总结了Qwen3的预训练过程中的,数据获取,数据配比,三大预训练步骤(通用、推理、长上下文),超参数调节,测评等预训练过程中的关键步骤。原创 2025-08-05 23:15:00 · 824 阅读 · 0 评论 -
Qwen3技术综述
本文对Qwen3技术报告中提到的数据处理技术与模型结构进行综述原创 2025-07-08 22:45:00 · 635 阅读 · 0 评论 -
MCPServer编程与CLINE配置调用MCP
python写一个最简单的MCP Server,并通过配置CLINE来调用MCP原创 2025-06-21 23:30:00 · 1408 阅读 · 0 评论 -
从CoIR基准测试来理解代码检索
本文讲解代码检索领域主流COIR评估标注,包括COIR数据集的构建、8大测评任务、测评方法、版单与主流模型。原创 2025-06-16 23:30:00 · 1147 阅读 · 0 评论 -
PrimeVul论文解读-如何构建高质量漏洞标签与数据集
PrimeVul作者对现有漏洞数据集进行分析,指出了现有数据集label不准和数据重复的问题,现有根据ACC/F1来做漏洞识别模型评测的不足,并给出了作者构建的另一个高质量数据集PrimeVul,还用这个数据测评了现有的SOTA的一些模型,并得出了现有模型做漏洞识别能力都不足的结论。作者的分析方法和高质量数据集构建的思路非常值得借鉴。原创 2025-05-18 22:45:00 · 1301 阅读 · 0 评论 -
用于测试大模型修复代码漏洞能力的数据集AutoPatchBench
AutoPatchBench里面包含了 136 个在实际代码库中(通过模糊测试发现的 C/C++ 漏洞),以及来自 ARVO 数据集的经过验证的修复方案。原创 2025-05-03 23:15:00 · 616 阅读 · 0 评论 -
详解大模型四类漏洞
大语言模型(LLM)的漏洞,分为安全与访问控制、合规与法律、信任与安全、品牌四大类。具体包括注入攻击、知识产权侵权、有害内容、错误信息等多种风险。原创 2025-04-04 23:15:00 · 1099 阅读 · 0 评论 -
PurpleLlama大模型安全全套检测方案
PurpleLlama包含多个关键工具和评估基准,用于提升LLM的安全性:(1)CyberSec Eval:网络安全评估工具,用于量化LLM在网络安全方面的风险,包括生成恶意代码的可能性、不安全代码建议频率以及协助网络攻击的能力。(2)Llama Guard:输入输出保护工具,用于过滤和检查LLM的输入输出内容,防止生成危险输出或被黑客利用。(3)Prompt Guard:提示保护工具,用于检测和阻止恶意提示注入,确保基于LLM的应用程序的安全性。原创 2025-03-21 22:15:00 · 2683 阅读 · 0 评论 -
基于trl复现DeepSeek-R1的GRPO训练过程
本文讲解了借助trl对Qwen2.5-0.5B-Instruct做GRPO的强化学习训练(DeepSeek)的过程,包括数据、数据处理、reward函数定义、训练前后的模型输出差异。原创 2025-03-01 23:15:00 · 4998 阅读 · 3 评论 -
用promptfoo做大模型安全性测评
本文讲解了运行promptfoo做大模型安全性测评的过程以及结果分析原创 2025-02-18 22:45:00 · 2384 阅读 · 0 评论 -
从TinyZero的数据与源码来理解DeepSeek-R1-Zero的强化学习训练过程
通过具体的数据与处理训练过程,来更好的理解DeepSeek-R1-Zero的强化学习训练方法。原创 2025-02-02 22:26:37 · 4461 阅读 · 0 评论 -
解读“大语言模型(LLM)安全性测评基准”
本文汇总了,大语言模型在用户输入prompt的操作后,大语言模型输出相应结果,这个过程中遇到的两大类安全问题,8种“prompt安全”问题与6种“内容安全”问题。原创 2025-02-04 23:45:00 · 1198 阅读 · 0 评论 -
重点解读《From Naptime to Big Sleep: Using Large Language Models To Catch Vulnerabilities In Real-World》
Google Project Zero团队与Google DeepMind团队合作,将Naptime项目升级,得到了Big Sleep项目,这也是一个Agent。原创 2025-01-11 23:30:00 · 657 阅读 · 0 评论 -
文章解读《Project Naptime: Evaluating Offensive Security Capabilities of Large Language Models》
Google的Project Zero团队,开发了一个叫做Naptime的项目,用于做漏洞研究原创 2024-11-25 23:30:00 · 867 阅读 · 0 评论 -
论文重点记录《RACONTEUR: A Knowledgeable, Insightful, and Portable LLM-Powered Shell Command Explainer》
文章重点内容解读RACONTEUR: A Knowledgeable, Insightful, and Portable LLM-Powered Shell Command Explainer原创 2024-11-09 23:30:00 · 548 阅读 · 0 评论 -
wireshark抓包查看langchain的ChatOpenAI接口发送和接收的数据
通过wireshark抓包,目的IP地址过滤,追踪流,就能看到langchain的ChatOpenAI发送的POST请求细节内容,并能依此构造一个POST请求来模拟该接口的通信。原创 2024-11-02 22:45:00 · 763 阅读 · 0 评论 -
COT存在的问题以及ReAct Agent对此所做的优化
从ReAct的论文中(参考1),可以看到,单纯用COT,也会存在一些问题,靠COT也无法很好的回答问题,如下图所示原创 2024-10-26 23:30:00 · 730 阅读 · 0 评论 -
nanoGPT用红楼梦数据从头训练babyGPT-12.32M实现任意问答
训练babyGPT-12.32M,使用GPU,以《红楼梦》为训练集语料,只需要4分钟,就能完成。也能实现(效果很差,输出难以控制,但语气上确实有那么点意思的)AIGC原创 2024-09-18 22:45:00 · 1308 阅读 · 0 评论 -
从头训练GPT2-124M过程中从wandb看到的参数含义
MFU(Model FLOPs Utilization)表示模型算力利用率...原创 2024-09-04 21:50:47 · 689 阅读 · 0 评论 -
理解vllm分布式推理服务中的多节点Multi-Node部署方式
使用vllm中的多节点分布式推理模式部署llm原创 2024-08-21 23:15:00 · 6284 阅读 · 0 评论 -
vllm部署Mistral-Large-Instruct-2407
vllm部署最新发布的最强大模型Mistral-Large-Instruct-2407为openai兼容接口原创 2024-07-25 23:30:00 · 1558 阅读 · 1 评论 -
在python中指定pytorch训练时使用多块或某块GPU的方法
在python中指定pytorch训练时使用多块或某块GPU的方法原创 2024-06-11 23:30:00 · 1470 阅读 · 1 评论 -
使用OpenVINO在本地CPU运行大模型的过程
本文在CPU上实测一下OpenVINO运行大模型ChatGLM3-6b的运行效果,并记录整个过程原创 2024-04-27 23:00:00 · 1578 阅读 · 0 评论 -
在hf-mirror下载数据集的方式
在huggingface的替代网站hf-mirror上下载数据集的方式原创 2024-03-23 23:45:00 · 4812 阅读 · 1 评论 -
理解大模型训练中的 Pre-Training,Fine-Tuning,In-Context Learning,Reward Modeling,PPO,DPO,RLHF
大模型训练中的 Pre-Training,Fine-Tuning,In-Context Learning,Reward Modeling,PPO,DPO,RLHF的含义与区别。原创 2024-03-09 23:30:00 · 7010 阅读 · 0 评论 -
大模型训练所需的硬件配置
训练一个大模型,到底需要投入多少块GPU,需要多少数据,训练多长时间能达到一个不错的效果?原创 2024-02-11 09:30:00 · 11448 阅读 · 0 评论 -
使用gpu_burn对GPU进行压测
使用gpu_burn,能在命令行中,对服务器上的每一个GPU进行压力测试,得出其速度、温度等关键指标。原创 2024-02-07 23:45:00 · 16383 阅读 · 0 评论 -
LLaMA-Factory微调ChatGLM3报错: Segmentation fault (core dumped)
LLaMA-Factory微调ChatGLM3报错: Segmentation fault (core dumped)原创 2023-12-08 22:51:08 · 2237 阅读 · 1 评论 -
LLaMA-Factory用self_cognition数据微调ChatGLM2后,CLI运行输出乱码和报错 IndexError: piece id is out of range
LLaMA-Factory用self_cognition数据微调ChatGLM2后,CLI运行输出乱码和报错 IndexError: piece id is out of range原创 2023-12-08 22:49:35 · 1878 阅读 · 0 评论 -
基于LLaMA-Factory用deepspeed多GPU训练大模型报错Caught signal 7 (Bus error: nonexistent physical address)
基于LLaMA-Factory用deepspeed多GPU训练大模型报错Caught signal 7 (Bus error: nonexistent physical address)的解决方法原创 2023-12-21 23:45:00 · 4577 阅读 · 2 评论 -
LLaMA-Factory如何对Tokenization步骤提速
LLaMA-Factory如何对Tokenization步骤提速原创 2023-12-21 23:30:00 · 2553 阅读 · 0 评论 -
LLaMA-Factory使用V100微调ChatGLM2报错 RuntimeError: “addmm_impl_cpu_“ not implemented for ‘Half‘
V100微调ChatGLM2报错 RuntimeError: "addmm_impl_cpu_" not implemented for 'Half'原创 2023-11-25 23:15:00 · 6150 阅读 · 1 评论 -
替代huggingface下载大模型的站点
替代huggingface下载大模型的站点原创 2023-11-11 23:45:00 · 4632 阅读 · 0 评论 -
快速下载ChatGLM系列模型
如何快速下载ChatGLM2模型原创 2023-11-11 23:30:00 · 1540 阅读 · 0 评论 -
OpenAI接口Completion和ChatCompletion的区别与使用方法
OpenAI有两个重要的接口,一个是`openai.Completion.create`,另一个是`openai.ChatCompletion.create`。那么问题来了,这两个接口有什么区别呢?还有他们使用的参考代码是什么样呢?原创 2023-10-14 17:45:20 · 17761 阅读 · 1 评论
分享