自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 收藏
  • 关注

原创 AI最新开源学习网址

AI开源项目知识库—AI-GitHub - 飞书云文档

2025-04-07 17:07:10 209

原创 大模型论文速读DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning2025.1

最后,作者还使用了模型蒸馏技术,将强化学习的能力应用到更小的模型中。该方法利用了大型模型的强大能力和小型模型的高效性,通过数据蒸馏技术将大型模型的知识转移到小型模型中,从而提高了模型的性能。在未来的研究中,作者计划进一步扩展DeepSeek-R1的能力,包括提高其处理多语言查询的能力,优化其提示工程,并研究如何将CoT应用于更复杂的任务,例如函数调用和JSON输出等。该论文提出了两种方法来提高模型的推理能力:一种是直接应用强化学习(RL)到基础模型上,另一种是将更大模型的推理模式“蒸馏”到更小的模型中。

2025-04-06 12:13:24 846

原创 大模型论文速读DeepSeek-V3 Technical Report2024.12

在实验部分,本文首先介绍了对OpenAI的DeepSeek-V3模型的基本评估结果,然后分别从知识、代码、数学和推理等多个角度与现有模型进行了比较实验。该文的研究旨在解决大规模自然语言处理任务中预训练模型的性能问题。具体来说,该文通过创新的负载平衡策略和训练目标、FP8混合精度训练框架以及知识蒸馏等方法,提高了预训练模型的性能,为大规模自然语言处理任务提供了更强大的工具支持。总之,本文通过对OpenAI的DeepSeek-V3模型进行全面的评估和比较实验,证明了该模型在多个自然语言处理任务中的优越性能。

2025-04-06 12:09:30 1030

原创 多模态大论文速读Janus-Pro: Unified Multimodal Understanding and Generation with Data and Model Scaling2025.1

本文介绍了Janus-Pro模型在多模态理解任务和文本到图像生成任务上的表现,并与现有的方法进行了比较。此外,在GenEval和DPG-Bench等视觉生成基准测试中,Janus-Pro也表现出色,超过了其他统一模型和生成特定模型的表现。本文提出了一种改进的Janus模型,通过训练策略、数据和模型大小等方面的优化,提高了多模态理解和文本到图像指令跟随的能力。总之,Janus-Pro模型在多模态理解和文本到图像生成任务方面的表现非常出色,证明了其在处理自然语言和视觉信息方面的强大能力。

2025-04-06 11:48:00 1128

原创 多模态大模型论文速读Ovis:多模态大型语言模型的结构嵌入对齐2024.6

更好地处理高分辨率图像和处理多图像输入的能力。总体而言,该研究为在结构上使视觉嵌入与文本嵌入保持一致的重要性提供了有价值的见解,并强调了在该领域继续研究的必要性。该架构通过在视觉编码器处理过程中集成一个可学习的视觉嵌入表,实现了结构化地对视觉和文本嵌入进行对齐,并使用了与生成文本嵌入相同的方法来捕捉丰富的视觉语义信息。此外,他们还强调了在结构上使视觉嵌入与文本嵌入保持一致的重要性,并讨论了与生成模型中的幻觉和偏见相关的潜在负面影响。,这是一种使用新的视觉嵌入查找表在视觉上对齐文本嵌入与视觉嵌入的新方法。

2025-04-06 11:26:16 939

原创 大模型排名、开源社区

功能:汇总SOTA模型在特定任务(如目标检测、文本摘要)的性能数据。功能:评估大模型认知与问题解决能力,提供透明榜单和开放数据集。定位:国内最大的开源社区,由阿里达摩院推出,集成通义千问、官网:https://paperswithcode.com。官网:https://agi-eval.cn。适用场景:快速原型开发、多语言模型实验。行业数据集与中文优化模型。核心功能:模型托管与推理服务(服务(模型即服务);)支持多模型组合应用(如。

2025-04-06 10:59:05 2774

转载 Qwen1.0-VL至Qwen2.5-VL核心技术点解析

因此adaptor使用一些随机初始化的query向量,和所有图像patch进行cross-attention,输出少量的向量,相当于对原始图像做了一个压缩,有选择性的保留信息,缩短后续输入到LLM的视觉token长度。在第三阶段,为了提升大模型的问答能力,使用SFT进行LLM的进一步finetune,冻结ViT参数,提升模型的对话能力。过年期间,阿里巴巴的千问多模态大模型引发了国内外的关注,最新发布的Qwen2.5-VL(72B)中,在多个数据集上的效果超越了GPT-4o,取得了最优效果。

2025-04-06 10:39:15 315

原创 大模型论文速读Qwen2.5 Technical Report2025.1

此外,作者还针对模型的效率和可解释性进行了优化,例如通过长上下文预训练和多阶段强化学习等方式来提高模型的能力和效率。系列语言模型,该系列模型经过预训练和后处理两个阶段的改进,在高质量预训练数据集的基础上,通过多阶段强化学习等技术进行后处理,提高了人类偏好、长文本生成、结构数据分析和指令遵循等方面的能力。他们使用了三个不同的基准来评估模型在这个方面的表现,并将其与其他现有的开源和专有的长上下文模型进行了比较。作者通过一系列的实验来比较不同规模的预训练模型在各种任务上的表现,并对其进行了详细的分析和总结。

2025-04-05 22:59:36 869

原创 大模型相关文章阅读Qwen2.5-VL Technical Report2025.2

通过增强的视觉识别、精确的对象定位、稳健的文档解析和长视频理解等能力,Qwen2.5-VL实现了对世界的更好理解和交互。较小的Qwen2.5-VL-7B和Qwen2.5-VL-3B模型在资源受限环境中表现出了更强的能力,并且仍然保持着稳健的语言性能,保留了Qwen2.5 LLM的核心语言能力。Qwen2.5-VL为视觉语言模型树立了新的基准,展示了在跨领域的任务执行和一般化方面的卓越表现,为更智能和互动系统的发展铺平了道路,实现了感知和现实世界应用之间的桥梁。

2025-04-05 22:43:04 1010

原创 机器学习4. 支持向量机

理论情况下,高斯核函数可以将数据映射到无限多维,高斯核函数可展开维泰勒级数,无线逼近。核函数的作用,如果只是做线性分类,好像轮不到SVM登场了,核函数才是它的强大之处!可以对每一个实例(样本数据点)创建一个地标,此时会将。核函数:#gamma越小,辐射范围越大,过拟合可能性越小。软间隔的作用,这么复杂的算法肯定会导致过拟合现象,如何来进行解决呢?因为特征是2维的,所以w也是2维的。m表示样本个数,n表示特征个数。

2022-09-14 00:11:16 970

原创 机器学习4. 决策树

目录4-11节11.决策树原理4-12节12.决策树代码实现4-13节13.决策树实验分析树模型的可视化展示¶概率估计决策树中的正则化决策树模型对数据的敏感

2022-09-13 16:00:17 1101

原创 机器学习4. 贝叶斯

贝叶斯解决逆向概率问题。4-20节20.贝叶斯算法原理4-21节21.贝叶斯代码实现数据格式:垃圾邮件分类示例,两个类别代码:bayes.py

2022-09-13 15:45:39 498

原创 pytorch-cifar运行自己的数据

(2)从终端命令行运行,否则没有测试结果 PS D:\Code\pytorch-cifar> python .\main.py。out7: torch.Size([2, 276480]) #276480=512*20*27对应最后一层全连接维数。out8: torch.Size([2, 2]) #第一个2为设置的batchsize值;第二个2为设置的类别数据。(3)#D:\Code\pytorch-cifar\models\resnet.py中注意修改最后一层维数。

2022-09-03 20:03:45 526

原创 第一届雷达学报博士论坛学术报告目次

目录第一届雷达学报博士论坛学术报告目次以下仅仅是相关重点内容,详情见上面目录。1. SAR成像技术分论坛基于“模型+数据驱动”的SAR学习成像方法研究(倪嘉成)SAR图像域干扰抑制方法(杨会章)2. 雷达信号处理分论坛基于特征值域的雷达海面目标检测算法设计(赵文静)3. 雷达感知技术分论坛(重要)基于深度学习的雷达多维信号特征融合方法(苏宁远)基于跨模态信息融合的细粒度人体感知技术(张东恒)雷达HRRP参数化统计建模及其在目标识别中的应用(陈健)4. SAR应用技术分论坛基于柔性超像素(Soft Super

2022-08-14 20:28:15 985

原创 mmdetection训练自己的数据,用网络deformable_detr做示例,先用labelme标注转为coco格式,训练后测试并分析

1.标注labelme2.将labelme标注的数据转为coco格式直接上代码:coco格式如下:3.mmdetection训练自己的数据,用网络deformable_detr做示例4.模型训练train.py(可视化标注文件browse_dataset.py)5.DEMO演示image_demo.py6.模型测试test.py7.可视化分析模块confusion_matrix.py、analyze_results.py、analyze_logs.py等。其他可在官网查看8.参数量计算量.

2022-08-08 23:00:04 4366 5

原创 mmclassification数据增强预处理、Grad-CAM、日志结果可视化,网络模型计算量、参数量统计

1.数据增强预处理可视化vis_pipeline.py2.对结果重要区域可视化Grad-CAM(1)使用方法(2)代码官网(3)Grad-CAM论文简介3.日志结果可视化曲线--loss、每次迭代平均时间3.网络模型计算量、参数量统计...

2022-08-07 17:14:36 1413 1

原创 mmclassification注意事项-修改、增加模块,测试时参数说明

1.测试image_demo.py效果时,在windows下传入参数为绝对路径,不然可能找不着。2.测试时参数说明test.py3.修改、增加模块3.1配置文件D:\Code\mmclassification\configs\resnet\GWF_resnet18_8xb32_in1k.py中(1)neck(2)loss--示例增加L1Loss,并进行debug(3)数据增强--颜色抖动、mixup(4)修改配置文件其他参数--加预训练模型、修改学习率...

2022-08-07 12:00:45 1461 1

原创 open-mmlab. mmclassification构建自己的数据集格式并训练

代码】open-mmlab. mmclassification构建自己的数据集格式并训练。

2022-08-06 17:59:06 2005 1

原创 open-mmlab. mmclassification安装并使用自己数据集windows下

重点: num_classes=10, #num_classes=1000,修改为自己的类别数量data_prefix='../mmcls/data/mnist/train', #'data/imagenet/train'修改为自己的数据位置depth=18,num_classes=10, #num_classes=1000,修改为自己的类别数量dict(]dict(]

2022-08-06 16:19:57 2359 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除