自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

原创 DeepSeek-R1解读:纯强化学习,模型推理能力提升的新范式?

本文通过对Deepseek-R1技术报告的解读,带你深入理解强化学习如何在Deepseek-R1中重塑LLM的post-training进程

2025-01-26 21:56:05 879

原创 大模型参数高效微调技术(PEFT)探究

Parameter-EfficientFine-Tuning(PEFT,参数高效微调)技术旨在通过最小化微调参数的数量和计算复杂度,来提高预训练模型在新任务上的性能,从而缓解大型预训练模型的训练成本。

2025-01-19 19:26:07 757

原创 一文详尽之Embedding(向量表示)!

在大模型时代,embedding(向量表示)的重要性愈发凸显。不论是在RAG(Retrieval-AugmentedGeneration)系统,还是在跨模态任务中都扮演着关键角色。本文带你详细了解文本向量的前世今生,让你能够更好地了解向量,使用向量。

2025-01-19 18:44:11 1449

原创 论文阅读 METAGPT: META PROGRAMMING FOR A MULTI-AGENT COLLABORATIVE FRAMEWORK

METAGPT首先提出了模拟人类标准化操作流程(SOPs)的多agent协作框架去解决AI自动化编程问题,有效地解决了基于聊天的多agent系统面临的级联幻觉问题。同时提出了基于结构化信息的跨agent通信协议,要求不同的agent按照其特定角色和背景提供必要的结构化输出。

2025-01-16 21:49:40 1181 1

原创 Pytorch 自学笔记(三):利用自定义文本数据集构建Dataset和DataLoader

Pytorch自学笔记系列的第三篇。针对Pytorch的Dataset和DataLoader进行简单的介绍

2025-01-15 17:31:49 741 1

原创 论文阅读 AutoDev: Automated AI-Driven Development

为什么要读这篇论文?学习一个coding agent的技术架构,建立对coding agent架构的基本认知。在此基础上再进一步探究MetaGPT、LDB、AgentCoder等业界SOTA coding agent的技术架构。

2025-01-15 17:10:06 1094 1

原创 Tiny-universe学习笔记:Qwen-blog

本文是参与[DatawhaleTiny-universe组队学习](https://github.com/datawhalechina/tiny-universe)的学习笔记第一篇,笔记中的代码均参考transformers-4.39.3中的Qwen2模型实现,基于torch开发,代码路径为transformers-4.39.3/src/transformers/models/qwen2。

2024-05-15 20:55:18 2656 2

原创 零基础入门金融风控-贷款违约预测_Task3

本文在task2基线方案的基础上,进行了缺失值的填充,利用平均数填充了数值型特征,利用众数填充了类别型特征。

2020-09-21 21:15:14 353 2

原创 零基础入门金融风控-贷款违约预测_Task2

贷款违约预测_Task2本文结合数据分析,给出了本次比赛的基线方案,该基线方案线上评测得分为0.7391。

2020-09-18 20:29:10 573 3

原创 零基础入门金融风控-贷款违约预测_Task1

贷款违约预测_Task1零基础入门金融风控-贷款违约预测_Task1数据概况预测指标零基础入门金融风控-贷款违约预测_Task1数据概况数据包含三部分:训练集(train.csv)、测试集A(testA.csv)、提交结果样例(sample_submit.csv)。其中,包含47列变量信息,其中15列为匿名变量。为了保证比赛的公平性,将会从中抽取80万条作为训练集,20万条作为测试集A,20万条作为测试集B,同时会对employmentTitle、purpose、postCode和title等信息进行

2020-09-15 20:41:31 294

原创 Datawhale大作业_基于Bert实现文本分类

Datawhale大作业基于Bert实现文本分类ImportParameters and HyperparametersTokenizerLoad IMDB DatasetLoad Pretrained-BertModelTrainEvaluatePredict_sentimentTrain Loop基于Bert实现文本分类Import# 基于Pytorch实现import torchimport torch.nn as nnimport torch.optim as optim# 使用tra

2020-07-06 22:56:31 306

原创 CS224n学习笔记 13_Contextual Word Embeddings

CS224n学习笔记 13Representations for a wordTips for unknown words with word vectorsTwo problems for these representations for a wordPeters et al. (2017): TagLM – “Pre-ELMo”ULMfitThe Motivation for TransformersTransformer OverviewScaled Dot-Product AttentionBer

2020-07-03 23:55:45 310

原创 Pytorch 自学笔记(二):Pytorch中常用的激活函数与损失函数探究

Pytorch自学笔记系列的第二篇针。对Pytorch中常用的激活函数与损失函数进行一个简单的介绍

2020-07-02 17:43:54 4547 2

原创 CS224n学习笔记 12_Subword Models

CS224n学习笔记 12Human language sounds: Phonetics and phonologyCharacter-Level ModelsBelow the word: Writing systemsPurely character-level modelsPurely character-level NMT modelsFully Character-Level Neural Machine Translation without Explicit SegmentationSub-

2020-06-30 23:33:26 482

原创 CS224n学习笔记 02_Word Vectors and Word Senses

CS224n学习笔记 02Word2vecMain idea of word2vecWord2vec: more details基于统计的词向量GloveCo-occurrence MatrixConclusionWord2vecMain idea of word2vec首先回顾一下,word2vec的主要思想:遍历整个语料库中的每个单词;使用单词向量预测周围的单词;更新向量以便更好地预测。Word2vec: more detailsword2vec 为什么设计两个向量?更容易优

2020-06-27 22:39:46 213

原创 CS224n学习笔记 01_Introduction and Word Vectors

Pytorch 自学笔记(一)CS224n学习笔记 01_Introduction and Word VectorsHow do we represent the meaning of a word?How do we have usable meaning in a computer?1. WordNet2. One-Hot: Representing words as discrete symbols3. Word Vector: Representing words by their contex

2020-06-24 18:28:20 269

原创 Pytorch 自学笔记(一):使用字符级特征来增强 LSTM 词性标注器

最近开始系统的学习Pytorch,准备写一个系列的blog(大概5篇左右),记录一下自己学习的进程。这第一篇笔记,写的是PyTorch官方教程中LSTM篇的课后练习题实现,网络很简单,但确实是我用Pytorch实现的第一个模型,值得写一篇blog来mark一下。

2020-06-21 10:55:40 2426 4

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除