
LLMs实践
文章平均质量分 76
快速复现
CSPhD-winston-杨帆
合作:winstonyf@qq.com 暨大博士生 川师大研究生 前成都东软教师
展开
-
AIGC_text_detector 论文复现 Multiscale Positive-Unlabeled Detection of AI-Generated Texts
这是目前找到的相对靠谱的AI生成文本检测工具。原创 2025-03-23 01:01:48 · 224 阅读 · 0 评论 -
chatgpt-comparison-detection 复现- AI生成文本检测
总目录 大模型安全相关研究:https://blog.youkuaiyun.com/WhiffeYF/article/details/142132328https://arxiv.org/pdf/2301.07597github:https://github.com/Hello-SimpleAI/chatgpt-comparison-detection检测单条文本,中文版(需要下载这个模型):https://huggingface.co/Hello-SimpleAI/chatgpt-detector-roberta-c原创 2025-03-16 20:37:26 · 789 阅读 · 0 评论 -
ImBD 复现 Imitate Before Detect: Aligning Machine Stylistic Preference for Machine-Revised Text Detect
【代码】ImBD 复现 Imitate Before Detect: Aligning Machine Stylistic Preference for Machine-Revised Text Detect。原创 2025-03-22 15:34:08 · 265 阅读 · 0 评论 -
计算机视觉与视觉大模型对板书检测效果对比
文章目录计算机视觉火山引擎ocr阿里云ocr视觉大模型GPT4kimi通义千问chatGLM百度 全部正确某开源模型,效果不佳计算机视觉火山引擎ocr阿里云ocr视觉大模型GPT4kimi通义千问chatGLM百度 全部正确某开源模型,效果不佳原创 2024-08-23 22:02:45 · 369 阅读 · 0 评论 -
使用LLaMA-Factory微调训练Qwen2-VL-7B与视觉大模型数据集制作流程
b站视频:使用llama-factory框架下的QWEN2-VL-2B-Instruct跑通图像指令数据集(学习记录)原创 2025-02-07 01:49:28 · 817 阅读 · 0 评论 -
Qwen2-VL 视觉大模型 快速 Qwen2-VL-7B-Instruct部署
再AutoDL上进行快速部署。原创 2025-01-02 14:46:20 · 3086 阅读 · 0 评论 -
微软MarkitDown 不加载大模型情况下的测试
word效果较好pdf乱码多excel无法加载图片无法识别。原创 2024-12-20 11:27:52 · 476 阅读 · 0 评论 -
AutoDL中的LLaMA-Factory 使用
我们在autdl上有LLaMA-Factory的镜像,这个镜像用的是Qwen2-7B-Chat,然后我们在Qwen的官网上找到了对应。通过上面的例子,我们知道了模型的选择与下载。打开VPN用迅雷下载。原创 2024-10-24 23:13:47 · 1496 阅读 · 0 评论 -
火山引擎 -Doub-豆包 API调用-2024-11-14
然后再模型广场的在线推理,创建推理接入点。在接入点中选择API调用。原创 2024-11-14 13:54:52 · 5152 阅读 · 0 评论 -
论文复现:Training on the Benchmark Is Not All You Need
这篇论文还是非常通俗易懂的,就是交换题目的选项顺序,来计算logprobs,查看是否有异常值。原创 2024-10-08 16:49:47 · 666 阅读 · 0 评论 -
顶会论文复现:PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS
这篇论文的测试数据污染的方法也是很扯淡的,论文结尾也说了,作者自己的方法得先证明数据集内的题目之间的顺序打乱是否有影响,这不就是扯淡么,训练期间,有个策略就是要每次输入训练时,打乱顺序,训练的时候都打乱了,作者测试期间打乱测的出来个屁呀。这也能发顶会,太离谱了。还有检测时用的logprobs这个值,这个值的低和高不代表污染程度,整个论文让我感到匪夷所思。原创 2024-10-07 09:58:21 · 1005 阅读 · 0 评论 -
顶会论文复现 time-travel-in-llms, TIME TRAVEL IN LLMS: TRACING DATA CONTAMINATION IN LARGE LANGUAGE MODELS
pip install dashscopeexport DASHSCOPE_API_KEY=“sk-91b8d4bd58c14888975968c8ecb64159”git clone https://github.com/google-research/bleurt.git dependencies/bleurt_scorercd dependencies/bleurt_scorerpip install .pip install evaluate==0.3.0原创 2024-10-03 21:14:41 · 309 阅读 · 0 评论 -
Bert 在 OCNLI 训练微调 2
【数据集微调】阿里天池比赛 微调BERT的数据集(“任务1:OCNLI–中文原版自然语言推理”)请参照下面的信息,下载数据集、提交榜单测试。原创 2024-05-15 09:56:43 · 900 阅读 · 0 评论 -
Bert 在 OCNLI 训练微调
【数据集微调】阿里天池比赛 微调BERT的数据集(“任务1:OCNLI–中文原版自然语言推理”)数据集地址:https://tianchi.aliyun.com/competition/entrance/531841/information由于这个比赛已经结束,原地址提交不了榜单看测试结果,请参照下面的信息,下载数据集、提交榜单测试。原创 2024-05-03 10:12:17 · 902 阅读 · 0 评论 -
BERT系列模型 RoBERTa在OCNLI 训练微调 3
arxiv:RoBERTa: A Robustly Optimized BERT Pretraining Approachpytorch官方实现:https://pytorch.org/hub/pytorch_fairseq_roberta/hugging face hfl chinese-roberta-wwm-ext:https://huggingface.co/hfl/chinese-roberta-wwm-ext/tree/main原创 2024-05-23 19:44:24 · 972 阅读 · 0 评论 -
T5模型 在OCNLI 训练微调 4
https://huggingface.co/google-t5/t5-base/tree/mainconda install -c conda-forge sentencepiece原创 2024-05-31 02:11:50 · 502 阅读 · 0 评论