自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(279)
  • 资源 (30)
  • 收藏
  • 关注

原创 探索大语言模型(LLM):MarkDown格式文档的结构化提取全流程

在做RAG工作中,数据处理的好坏往往决定着RAG效果的好坏。经过实际的测试,MarkDown格式的文本相较docx、pdf等格式无疑是最合适的,本篇将详细介绍MarkDown格式文档的结构化提取的全流程。

2025-10-24 12:48:31 905

原创 大模型面试题剖析:LoRA高效微调的核心原理

大型语言模型(LLM)参数规模极大,全参数微调存在诸多难题:- **成本高昂**:需存储和更新所有模型参数副本,训练开销大。- **部署困难**:每个任务都要存储完整模型副本,占用大量存储空间。- **资源需求高**:对计算资源和GPU内存要求严苛,普通设备难以支撑。

2025-10-14 21:00:00 1546

原创 大模型面试题剖析:全参微调与LoRA的资源占用解析

在深度学习模型的全参微调过程中,资源占用主要来自模型权重参数、优化器状态向量和梯度这几个关键部分,我们来详细看看它们的计算公式和含义。

2025-10-14 21:00:00 490

原创 探索大语言模型(LLM): 大模型应用与对应的硬件选型一览表

不同系列的显卡,适合的人群和做的事不一样,看下面的表就清楚啦

2025-10-13 14:31:57 1318

原创 大模型面试题剖析:大模型训练关键技术解析(从 RLHF 、RLAIH、DPO到 SFT)

在大模型的迭代优化过程中,如何让模型输出更符合人类预期、更适配特定任务,一直是技术研发的核心方向。本文将围绕人类反馈的强化学习(RLHF)、AI 反馈强化学习(RLAIH)、直接偏好优化(DPO)以及监督式微调(SFT)等关键技术展开,深入解析它们的核心原理、实施流程与技术特点,帮助读者理清大模型训练技术的脉络。

2025-10-13 14:10:59 580

原创 探索大语言模型(LLM):大模型微调方式全解析

在大模型落地实践中,微调(Fine-tuning)是连接通用预训练能力与特定任务需求的关键环节。通过微调,我们能让在海量数据上预训练的模型 “适配” 具体业务场景,比如客服对话、代码生成、医学文献分析等。本文将系统梳理六种主流微调方式,从核心原理、参数调整逻辑到适用场景,帮你快速掌握不同方案的选型思路。

2025-10-06 18:10:36 802 4

原创 大模型面试题剖析:深入解析 Transformer 与 MoE 架构

在人工智能大模型飞速发展的今天,Transformer 架构无疑是撑起整个领域的 “基石”,而 MoE(Mixture of Experts)架构则凭借其独特的 “稀疏激活” 思路,成为突破大模型参数规模与计算效率瓶颈的 “关键引擎”。无论是 ChatGPT 背后的技术支撑,还是自动驾驶中的多模态感知,这两种架构都扮演着不可或缺的角色。本文将从核心原理、大模型设计逻辑和关键差异三个维度,带大家全面读懂 Transformer 与 MoE 架构。

2025-10-06 16:21:42 810

原创 探索大语言模型(LLM):一文读懂通用大模型的定义、特点与分类

在人工智能技术飞速发展的当下,通用大模型无疑是最受关注的领域之一。它凭借强大的能力打破了传统 AI 模型的局限,为各行业的智能化升级提供了全新可能。本文将从通用大模型的定义出发,深入剖析其核心特点,并详细梳理常见的分类方式,带大家全面认识这一前沿技术。

2025-10-06 15:48:57 1010

原创 大模型面试题剖析:模型微调中冷启动与热启动的概念、阶段与实例解析

在人工智能模型的开发流程中,微调是让预训练模型适配特定任务、提升性能的关键环节。而在微调的启动方式上,“冷启动” 和 “热启动” 是两个高频出现但容易混淆的概念。很多刚接触模型微调的开发者,常会疑惑二者的核心区别的适用场景。今天这篇博客,就用通俗易懂的语言拆解这两个概念,结合实际微调案例,帮你搞懂什么时候该用冷启动,什么时候该选热启动。

2025-10-03 17:41:49 665

原创 探索大语言模型(LLM):Windows系统与Linux系统下的Ollama高级配置(修改模型地址、Service服务以及多卡均衡调用)

在之前的探索大语言模型(LLM):Ollama快速安装部署及使用(含Linux环境下离线安装)中,已经介绍了ollama在Windows环境下和Linux环境下的安装,在本篇中将重点介绍Ollama的常用配置

2025-09-16 09:31:41 1195

原创 大模型面试题剖析:RAG中的文本分割策略

在大语言模型(LLM)驱动的应用场景中,检索增强生成(RAG)技术愈发关键。而文本分割,作为RAG流程里的核心环节,直接影响着整个系统的性能与效果。接下来,我们将从文本分割的重要性、在RAG中的位置、不同分割方法以及实践建议等方面,进行全面且深入的剖析。

2025-09-15 15:00:16 1055

原创 探索大语言模型(LLM):Open-WebUI的安装

Open-WebUI 是一款专为大模型设计的开源可视化交互工具,它通过类 ChatGPT 的直观界面,让用户无需代码即可管理、调试和调用本地或云端的大语言模型(LLMs),成为私有化部署的便捷工具,本文将介绍如何部署并使用Open-WebUI。

2025-09-11 17:30:31 562 1

原创 探索大语言模型(LLM):Ollama快速安装部署及使用(含Linux环境下离线安装)

Ollama 是一个开源的本地化大模型运行平台,支持用户直接在个人计算机上部署、管理和交互大型语言模型(LLMs),无需依赖云端服务。而且其混合推理的特性也使得CPU和GPU的算力能够充分被使用,能够在同等配置下跑更大的模型,是非常适合个人学习使用的平台。本篇将详细介绍Ollama在各种平台上的详细安装过程以及应用。

2025-09-11 16:27:20 1374

原创 大模型面试题剖析:大模型微调数据集构建

在大模型技术栈中,微调(Fine - tuning)是使预训练大模型适配特定领域任务的核心手段,而微调数据集作为模型训练的“燃料”,其构建的科学性与工程化程度直接决定微调效果上限。本文从流程、规模、工业实现、强化学习适配等维度,系统解析大模型微调数据集的构建技术。

2025-09-04 10:03:21 558

原创 大模型面试题剖析:大模型多模态微调技术全解析

在人工智能领域,大模型多模态微调是让模型具备跨模态理解与生成能力的关键技术。它能使模型更好地适配特定场景,在视觉问答、医疗影像诊断等诸多领域发挥重要作用。下面将从多模态大模型结构、微调方法、数据准备、应用场景以及面临的挑战等方面展开详细解析。

2025-09-03 11:44:01 713

原创 大模型面试题剖析:大模型多机多卡微调全解析

在大模型时代,模型参数规模呈爆炸式增长,单卡训练已难以满足需求,多机多卡微调成为大模型训练与优化的关键技术。本文将从多机多卡微调的核心原理、实现方式、工程实践要点以及面临的挑战等方面展开详细介绍。

2025-09-02 17:26:20 490

原创 大模型面试题剖析:全量微调与 LoRA 微调

在当今的人工智能领域,大模型已成为推动众多应用发展的核心力量。然而,预训练的通用大模型往往无法直接完美适配各种特定的下游任务。为了让模型在特定任务中展现出卓越性能,微调技术应运而生。本文将深入探讨两种重要的微调方式:模型全量微调与 LoRA(Low-Rank Adaptation)高效微调,详细阐述它们的原理、优势以及在实际应用中的表现。

2025-09-01 16:40:31 693

原创 大模型面试题剖析:PPO 与 GRPO 强化学习算法核心差异解析

在大模型与强化学习交叉的技术领域面试中,PPO(Proximal Policy Optimization)和GRPO这两种算法常常成为面试官考察候选人对强化学习算法理解深度与工程实践能力的重点。今天,我们就从面试高频问题出发,深入剖析二者的核心差异。

2025-08-31 16:16:17 719

原创 大模型面试题剖析:大模型微调与训练硬件成本计算

在大模型技术浪潮中,“大模型微调&训练硬件成本评估” 已成面试高频考点。从底层逻辑到工程实践,每一处细节都可能成为面试官考察你技术深度的切入点。本文结合多场景知识,拆解核心考点,助力面试突围。

2025-08-27 16:27:22 890

原创 大模型面试题剖析:Pre-Norm与Post-Norm的对比及当代大模型选择Pre-Norm的原因

在深度学习面试中,Transformer模型的结构细节和优化技巧是高频考点。其中,归一化技术(Normalization)的位置选择(Pre-Norm vs. Post-Norm)直接影响模型训练的稳定性,尤其是对于千亿参数级别的大模型。本文将结合梯度公式推导,对比两种技术的差异,并解析当代大模型偏爱Pre-Norm的核心原因。

2025-08-25 11:15:59 1756

原创 大模型面试题剖析:模型微调和蒸馏核心技术拆解与考点梳理

在大模型求职面试的赛道上,模型微调和模型蒸馏是绕不开的核心技术考点。这两项技术,一个聚焦模型能力的精细打磨,一个着眼于知识迁移与效率优化,深刻影响着大模型在实际场景中的表现。下面,我们就从技术原理、面试考点等维度,深入拆解,助力大家在面试中精准应答 。

2025-08-24 17:56:32 656

原创 大模型面试题剖析:微调与 RAG 技术的选用逻辑

在大模型技术岗位面试里,“何时用微调技术,何时用 RAG 技术” 是高频考点。这不仅考察对两种技术的理解,更看能否结合场景权衡运用,下面结合要点深入分析。

2025-08-24 17:29:44 535

原创 huggingface入门:Tokenizer 核心参数与实战指南

在自然语言处理(NLP)工程实践中,“文本如何变成模型能读懂的输入” 是绕不开的核心问题。而在Hugging Face Transformers库中,Tokenizer正是解决这一问题的关键组件 —— 它像一座桥梁,一边连接着人类可读的原始文本,另一边连接着模型可处理的数值张量。今天我们就从参数视角拆解 Tokenizer,搞懂它的工作逻辑,以及如何根据任务灵活配置。

2025-08-24 16:45:15 1116

原创 huggingface入门:如何使用国内镜像下载huggingface中的模型

本文介绍了两种下载HuggingFace模型的镜像解决方案:ModelScope和HF-Mirror。针对网络问题导致的模型下载失败,推荐使用镜像网站结合迅雷下载工具。ModelScope提供模型搜索和Python下载功能,支持指定本地保存路径;HF-Mirror则提供Git和迅雷两种下载方式。两种镜像网站都能有效解决直接访问HuggingFace的困难,其中迅雷下载方式最为便捷高效。文中详细说明了各平台的具体操作步骤和下载方法。

2025-08-23 16:45:04 1046

原创 探索大语言模型(LLM):提升 RAG 性能的全方位优化策略

本文深入探讨了提升检索增强生成(RAG)系统性能的多维度优化策略。文章从标准RAG流程出发,系统介绍了查询增强(假设性问题生成、HyDE、子查询拆分)、索引优化(自动合并文档、分层索引)、检索器升级(句子窗口检索、元数据过滤)、生成器调优(提示压缩、chunk排序)以及全流程增强(自反思、Agent路由)五大类方法。这些技术通过优化RAG各环节,显著提高系统在准确性、效率和鲁棒性方面的表现。文章建议开发者根据具体业务场景(如数据规模、查询复杂度等)选择合适的技术组合,并提供了实践指导原则,为构建高性能RAG

2025-07-23 17:31:58 875

原创 RAG技术深度解密:AI界的“学霸外挂”如何炼成?

RAG(检索增强生成)技术通过"检索+生成"两步走,解决传统AI的时效性与准确性痛点。其核心流程包括:知识库预处理(文本分块与向量化)、问题检索(相似度匹配)、上下文生成(结合检索结果输出)。优势在于实时更新知识、减少幻觉、垂直领域适配及答案可追溯。典型案例显示,金融客服应用可提升90%响应效率。未来将向多模态检索、自我验证等方向进化,在医疗、法律、教育等领域具有广阔应用前景。

2025-06-25 12:03:18 342

原创 AI也会“列公式”了?CoT模型让AI学会像人类一样思考!

传统AI只能机械输出结果,而思维链(CoT)模型开创性地让AI展现推理过程。当面对用6个1组成最大数时,CoT会逐步分析得出11¹¹¹,而非简单拼接111111。这种技术突破体现在三大维度:1)将复杂问题拆解分步解决;2)生成可追溯的推理链条;3)具备自我修正能力。目前CoT已成功应用于医疗诊断、教育辅导等领域,虽仍存在推理链断裂等局限,但其透明化思考的特性正推动AI从计算工具向思

2025-06-25 12:02:08 637

原创 微软CTO预言:MCP协议将重塑AI未来,成为智能体的“万能插座“

当AI大模型争相打造"超级大脑"时,微软首席技术官Kevin Scott却抛出一个颠覆性观点:未来的智能体不需要成为全能选手,只需通过MCP协议这个"万能插座",就能与世界万物自由对话!

2025-06-19 15:33:44 508

原创 探索大语言模型(LLM):Lora vs. QLora:参数高效微调的双生花,你该选谁?

在大型语言模型(LLM)的微调江湖中,参数高效微调(PEFT)技术正以“四两拨千斤”的姿态颠覆传统训练范式。其中,Lora(Low-Rank Adaptation)与QLora(Quantized Low-Rank Adaptation)这对“双生花”凭借独特优势,成为开发者手中的利器。本文将深入剖析二者的技术内核、资源消耗与适用场景,助你在资源与精度间找到完美平衡点。

2025-06-19 15:23:15 918

原创 每个行业都在被AI“重做一遍”!你不会提示词工程,就只能被淘汰!

制造业机器人精度超越老师傅,医疗AI诊断速度比专家快10倍,金融AI交易速度是人脑的百万倍...各行各业都在被AI重构。不会使用AI工具的职场人正面临淘汰危机:简历筛选被刷、面试答不上AI问题、升职被会AI的同事碾压。

2025-06-14 18:57:16 408

原创 玩转计算机视觉——安装配置部署paddleOCR(英伟达环境与昇腾300IDUO环境)

本文详细介绍了在英伟达和昇腾300IDUO平台上安装PaddleOCR的完整流程。英伟达平台包括创建Python 3.10虚拟环境、安装Jupyter和PaddleOCR GPU版本。昇腾平台安装则包含驱动固件准备、CANN环境配置、源码下载、模型转换(paddle→onnx→mindir)以及最终测试验证。两种安装方式均提供了完整的命令操作步骤和官方参考链接,涵盖从环境搭建到模型推理的全过程,适合不同硬件平台上的OCR应用部署。

2025-06-13 11:37:10 869 5

原创 探索大语言模型(LLM):使用EvalScope进行模型评估(API方式)

EvalScope是阿里巴巴魔搭社区开发的开源模型评估框架,提供模型压力测试和性能评估功能。安装过程包括创建conda虚拟环境、安装Jupyter内核和EvalScope组件。压力测试可通过命令行执行,测试指标包括吞吐量、延迟等关键参数。性能评估支持在线数据集和本地数据集两种模式,通过Jupyter Notebook配置评估任务。评估结果可通过可视化看板查看,执行evalscope app命令后访问本地端口即可查看详细报告。该框架为开发者提供了一站式的模型评估解决方案

2025-06-10 09:42:19 2056

原创 提示词工程:AI界的“芝麻开门”!学会这招,让AI乖得像你家猫!

“为什么同事用AI写方案被老板夸上天,而你连让AI画个猫都能收获一只‘四不像’?”“别怀疑人生!你只是缺了这把‘魔法钥匙’——提示词工程!”

2025-06-09 13:31:50 1059

原创 大模型「瘦身记」:量化技术让AI从“吃显卡”到“吃泡面”!

你知道吗?现在的大模型动不动就万亿参数,吃算力像喝奶茶一样上瘾!别慌!今天带你揭秘大模型量化的“黑科技减肥法”,让AI既聪明又“苗条

2025-06-09 13:30:17 510

原创 【AI模型训练真相】为什么现在企业都在玩“微调“而不是从头训练?

当你调用ChatGPT写文案、用Stable Diffusion生成图片时,可能不知道这些模型早就在价值数亿的超级计算机上"烧"了数月电费。今天带你揭秘AI模型训练的"潜规则"——预训练与微调的财富密码!

2025-06-08 21:04:07 614

原创 大语言模型的三大门派:你的聊天对象究竟是哪一派?

当你在对话框输入问题,是否好奇过屏幕那端的AI究竟在如何"思考"?今天带你揭秘AI世界的三大流派,看懂它们如何用不同方式与你对话!

2025-06-08 21:02:01 861

原创 AI界的“专家会诊”:MoE模型如何让AI变得更聪明?

当你走进医院,护士先问症状再分诊到对应科室——这种“精准匹配”的智慧,现在被AI学会了!今天带你解锁科技圈新宠:MoE(Mixture of Experts)多专家模型,看AI如何组建“专家天团”攻克复杂难题。

2025-06-06 11:54:49 978

原创 当AI模型越来越大:参数量背后的“黄金公式”与Scaling Law的启示

过去十年,人工智能领域最震撼的变革之一,是模型参数量从百万级飙升至万亿级。从GPT-3的1750亿参数到GPT-4的神秘规模,再到谷歌Gemini的“多模态巨兽”,参数量仿佛成了AI能力的代名词。但参数真的是越多越好吗?这场“军备竞赛”背后,是否隐藏着更底层的规律?今天,我们拆解参数量的决定性因素,并透过Scaling Law(尺度定律)的视角,窥探AI发展的终极密码。

2025-06-06 11:52:26 1075

原创 每个行业都在被AI“重做一遍”!你不会提示词工程,就只能被淘汰!

AI浪潮席卷职场:提示词工程已成生存技能 从制造业到医疗、金融,AI正在颠覆传统工作模式。数据显示,AI在CT诊断中比专家快10倍,金融交易速度提升百万倍。职场人面临紧迫选择:掌握AI工具或面临淘汰。 本文揭示8大提示词黄金法则: 精准翻译需求 、设定具体人设 、结构化指令、 明确禁忌区、 迭代优化、 爆款模仿 、量化指标 、工具包组合 。不同行业应用案例显示,优质提示词可使AI产出效率提升300%。掌握提示词工程不仅是职场生存之道,更是开启副业收入的新钥匙。

2025-06-02 19:21:00 711

原创 探索大语言模型(LLM):参数量背后的“黄金公式”与Scaling Law的启示

过去十年,人工智能领域最震撼的变革之一,是模型参数量从百万级飙升至万亿级。从GPT-3的1750亿参数到GPT-4的神秘规模,再到谷歌Gemini的“多模态巨兽”,参数量仿佛成了AI能力的代名词。但参数真的是越多越好吗?这场“军备竞赛”背后,是否隐藏着更底层的规律?今天,我们拆解参数量的决定性因素,并透过Scaling Law(尺度定律)的视角,窥探AI发展的终极密码。

2025-06-02 16:08:30 749

使用opencv-python实现的基于模板匹配的银行卡号识别项目

使用opencv-python实现的基于模板匹配的银行卡号识别项目,有详细的代码解释过程

2023-01-04

柠檬质量分类数据集(Lemon Quality)

可以用于区分好柠檬和坏柠檬的数据集,其中包含好柠檬、坏柠檬、拍照背景图片,可以用于区分柠檬好坏

2022-11-06

车标分类数据集(car logo datasets)

用于图像分类的车标分类数据集

2022-11-06

用于狗狗表情识别的数据集

一个用于狗狗表情识别的数据集,包含愤怒,开心,放松,难过四种标签,可以用来训练用于识别狗狗表情的深度学习模型,适用于深度学习或图像处理的学习者

2022-11-04

基于tensorflow的手语检测

1. 使用的模型是centernet 2. 使用predict.py可以进行预测 3. 使用的环境是tensorflow 4. 建议安装cuda使用 5. 该检测容易误检人脸,建议演示时避免人脸靠得太近 6. 根据手语对照表可以使用项目检测相应的手语

2022-11-04

python实现含UI界面和数据库的学生成绩管理系统.zip

Python实现的一个使用PyQt5写的带UI界面的学生成绩管理系统,并且可以链接MySQL数据库

2022-11-04

python图片批量去重脚本.zip

基于opencv写了一个图片批量去重的python脚本,可以对比图片相似度并且保留相似但是更为清晰的图片

2022-11-04

人脸检测和动漫脸检测剪裁脚本.zip

一个用于批量识别并裁剪文件夹中所有图片中出现的人脸或者出现过的动漫脸的轻量级python脚本,可以将自己收集的含有人脸的图片直接裁剪出来,可以供后续的人脸识别做准备。注:文件夹路径分隔要用“/”而不是“\”,可私信讨论

2022-11-04

可以用于将图片转换为扫描样式的图片二值化工具

可以用于将图片转换为扫描样式的图片二值化工具

2022-11-04

包 子 阳 智 能 优 化 算 法 及 matlab 实 例 源 代 码

包 子 阳 智 能 优 化 算 法 及 matlab 实 例 源 代 码

2022-05-25

python实现用于图片拟合的免疫遗传算法

为了快速理解免疫遗传算法,以图片拟合为背景,使用python实现免疫遗传算法的手动实现,详细解析请查看我的博客:https://editor.youkuaiyun.com/md?not_checkout=1&articleId=124096240

2022-04-11

交叉进化算法python手动实现

python手动实现交叉进化算法对于函数最值的求解

2022-03-09

python实现使用遗传算法进行图片拟合

python手动实现使用遗传算法进行图片拟合,有利于对智能优化算法的理解和实现,详细的解释和介绍可参照我的博客 https://blog.youkuaiyun.com/DuLNode/article/details/123023288

2022-02-21

飞桨实现卷积神经网络手写数字识别.ipynb

使用飞桨实现手写数字识别

2021-12-06

无监督学习-kmeans聚类算法及手动实现jupyter代码.ipynb

无监督学习-kmeans聚类算法及手动实现jupyter代码.ipynb

2021-12-03

rarlinux-5.3.0.tar.gz

rarlinux-5.3.0.tar.gz

2021-12-09

telnet-server-0.17-47.el6.x86_64.rpm

telnet-server-0.17-47.el6.x86_64.rpm

2021-12-09

Linux下Shell编程.ppt

Shell的简介以及Linux使用shell编程的指令及命令

2021-12-07

使用飞桨(Paddle)构建单层神经网络.ipynb

使用飞桨(Paddle)构建单层神经网络.ipynb

2021-12-04

python实现梯度下降.ipynb

用python手动实现梯度下降

2021-12-04

甲状腺癌复发数据集(RAI 治疗后的甲状腺癌数据集,分析性别、年龄和风险因素)

该数据集侧重于放射性碘 (RAI) 治疗后的甲状腺癌复发情况。它包含 383 份患者记录,具有 13 个关键属性,包括年龄、性别、癌症分期、病理类型、风险分类、治疗反应和复发状态。这些数据对于预测癌症复发、了解风险因素和评估治疗结果很有价值。

2025-04-15

注释超声肝脏图像数据集

该数据集包含一组带注释的肝脏超声图像,旨在帮助开发用于肝脏分析、分割和疾病检测的计算机视觉模型。注释包括肝脏和肝脏肿块区域的轮廓,以及良性、恶性和正常病例的分类。此数据集提供肝脏的超声图像和详细的注释。注释突出显示肝脏本身和存在的任何肝脏肿块区域。这些图像分为三类: 良性:显示良性肝脏状况的图像。 恶性:显示肝脏恶性病变的图像。 正常:健康肝脏的图像。

2025-04-15

IMDb 电影类型分类数据集

movies_overview.csv: title:电影标题 overview:电影的简要说明或概要 genre_ids:一个或多个流派标识符(可以是多标签) movies_genres.csv: id:流派标识符 name:对应的流派名称

2025-04-15

电动汽车保有量数据集(来自美国政府的电动汽车数量数据)

此数据集提供了有关目前在美国注册的电池电动汽车 (BEV) 和插电式混合动力电动汽车 (PHEV) 的详细信息,特别是通过华盛顿州许可部 (DOL)。该数据集包括这些电动汽车的各种属性,例如品牌、型号、注册年份以及反映华盛顿州电动汽车采用增长趋势的其他相关数据。它提供了有关道路上电动汽车类型及其地理分布的宝贵见解,并帮助跟踪该州电动汽车使用情况的演变。对于有兴趣研究美国电动汽车市场的政策制定者、研究人员和组织,以及开发基础设施和服务以支持日益增长的电动汽车需求的人来说,该数据集是一个有用的资源

2025-04-15

土壤污染和相关健康影响数据集

该数据集包含 3000 条合成记录,用于模拟土壤污染和相关疾病的真实场景。它捕获环境、农业和人口统计变量,以分析土壤污染与人类健康结果之间的相关性。数据是使用概率模型和领域知识生成的,使其适用于探索性分析、机器学习和环境健康研究。 主要功能包括: 土壤中的污染物类型和浓度 土壤和天气条件 农业实践和附近的行业分布 报告的疾病类型、严重程度和症状 受影响的人口统计细分 缓解措施和案例解决方案 它非常适合用于数据科学项目、公共卫生研究、环境建模和预测分析。

2025-04-15

沃尔玛股票数据(2000年至2025年)

Walmart Inc. 是一家全球性的美国零售集团,主导着美国市场的大部分。沃尔玛在财富全球 500 强全球最高收入企业名单中一直名列前茅。 截至 2025 年 3 月,沃尔玛的市值为 6795 亿美元。这使得沃尔玛成为全球市值最有价值的公司之一。市值,通常称为市值,是上市公司流通股的总市值,通常用于衡量公司的价值。

2025-04-15

骨折数据集 – 胫骨和腓骨

该数据集旨在开发用于胫骨和腓骨骨折分类和定位的机器学习模型。它包含格式的 X 射线图像,其中一些图像已由埃塞俄比亚 Gondar 大学的医学专家验证,而其他图像则来自公共存储库。 该数据集旨在支持: 自动诊断胫骨和腓骨骨折 深度学习在骨科放射学中的应用 医学影像研究和临床决策支持 所有图像均为 PNG 格式,并经过图像增强和增强,以提高机器学习任务的质量和可用性。 包含的文件: 胫骨和腓骨的 PNG 格式 X 射线图像集合 图片来自: 贡达大学转诊医院 MURA(肌肉骨骼 X 光片)数据集 总大小:319 MB

2025-04-15

300IDUO卡mindie镜像百度云

适用于300IDUO的mindie环境的Docker镜像,已上传到百度云

2025-03-12

GraphRAG输出中文提示词

在使用GraphRAG时发现,生成的结果均为英文,并不能直接使用。 经历了对于提示词的逐步调整,总算是整理出来了一套可以输出中文知识图谱的提示词 使用方式:解压后替换掉原先的提示词文件即可

2025-02-18

OpenCV、Python和scikit-learn进行智能图像处理-资料以及代码.rar

OpenCV、Python和scikit-learn进行智能图像处理——资料以及代码

2023-04-05

PyQT5-代码实例库

个人在使用PyQt的过程中遇到使用过的一些PyQt的各类小demo 按照控件和功能用法分好类了,方便查找和学习

2024-04-13

加州房价数据集(california-house-prices)

加州房价数据集,可以用于数据分析、机器学习和深度学习的学习使用

2023-03-09

rafdb表情识别数据集

用于表情识别的rafdb数据集

2023-02-23

python学生成绩管理系统合集.zip

其中包含一个实验报告和三个版本的学生成绩管理系统 三个版本分别为 tkinter界面 PyQt5界面 PyQt5界面+MySql

2023-02-17

机器学习资料、实验代码及报告.zip

学习机器学习过程中的资料、代码和实验报告,可供学习使用 其中包括 实验1-机器学习入门 实验2-KNN分类 实验3-贝叶斯分类上 实验3-贝叶斯分类下 实验4-决策树分类器上 实验5-支持向量 实验6-线性回归 实验7-聚类分析 实验8-降维分析 实验报告 机器学习实战 机器学习模型分类汇总

2023-02-17

三国人物关系词频分析词云图.zip

三国人物关系的词云图,通过从txt文件中读出文本进行分词、数据处理、词频分析获取词频与词云图

2023-02-17

航拍语义分割(附数据集).zip

使用航拍数据集进行的语义分割操作,其中有两种语义分割的方法,有早期的U-net模型,也有较为新的deeplabv3+模型,其中包含数据集,代码形式为jupyter notebook,便于观察数据的变化

2023-02-17

用于语义分割的航拍数据集

数据集包含6个类别: 1、Building: #3C1098 2、Land (unpaved area): #8429F6 3、Road: #6EC1E4 4、Vegetation: #FEDD3A 5、Water: #E2A929 6、Unlabeled: #9B9B9B

2023-02-17

手写数学符号识别项目-Handwritten-math-symbols-recognition.zip

数据集来自:https://www.kaggle.com/datasets/xainano/handwrittenmathsymbols 由82个类别,共计30万张图片,重写数据加载器解决了在笔记本上数据过大难以加载的问题,使用了现代常用的CNN网络如VGG,googleNet,resNet等进行模型的训练

2023-02-17

fashionMNIST数据集

由于学习pytorch时出现这个数据集的下载问题,所以在这里免费分享一下,如果对您有帮助希望能给我一个关注,谢谢

2023-01-07

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除