- 博客(50)
- 资源 (2)
- 收藏
- 关注

原创 Attention机制全流程详解与细节学习笔记
学习Attention机制时对一些细节的理解与记录。下面我会把整个Attention机制的主要流程通过另外一种方式再过一遍,对其中的一些关键参数的维度,这里也会有所标注
2020-12-02 03:14:08
2667
原创 从GPT到ChatGPT:我们离那个理想的AI时代到底还有多远?
在2023年新年伊始,科技界最为爆火一款产品无疑是OpenAI公司出品的ChatGPT了,作为一名NLP领域从业者,似乎也好久没有看到如此热闹的技术出圈场景了。诚然从现象来看,无论从效果惊艳度、社会效应、商业价值、科技发展方向的任何一方面来说,ChatGPT都是一个里程碑式的作品,更是AI发展的一记强心剂。本文旨在简单过一下相关模型原理,基于之前的Transformer相关知识点,快速了解相关原理。
2023-02-10 11:56:37
3677
原创 温故而知新(一)—— 再看RNN、LSTM、GRU
子曰:“温故而知新,可以为师矣。” --《论语 为政》老祖宗的话真香啊。今天复习以前学习的知识点的时候,看到LSTM,也算是一个八股文高频考点了,于是把自己以前写的旧文干货!RNN、LSTM、GRU学习笔记拿出来看了一下,发现还是不够透彻,文章中对一些关键状态的含义,以及为什么要这么做没有解析的很透彻,这样导致学习完容易忘,今天看完又深入看了一下,又有了一些新的理解,忍不住要写出来,相当于打了一剂加强针,果然是温故而知新啊!真香!干货!RNN、LSTM、GRU学习笔记中基本已经把大部分的公式.
2021-10-16 18:33:41
503
原创 从二叉树开始刷起(五)——找到所有不同的二叉搜索树
今天我们来看BST的最后一篇,我们来看如何计算所有合法BST。96. 不同的二叉搜索树这一题一眼看下来发现这个还是很摸头不知脑的,要理解题目中这个种数的意思,也就是说二叉树的不同形态。具体的解答部分还是参考原文解答:这样我们可以初步用递归写出对应的代码:class Solution: def numTrees(self, n: int) -> int: def count(lo,hi): res = 0
2021-10-16 13:33:04
149
原创 从二叉树开始刷起(四)—— 二叉搜索树的查找、插入、删除与合法性判断
数据结构的增删改查永远是逃不掉的基本操作,那就从节点的查找开始吧。700. 二叉搜索树中的搜索可以直接很暴力地遍历每一个节点进行比较:class Solution: def searchBST(self, root: TreeNode, val: int) -> TreeNode: if not root:return None if root.val == val: return root return self
2021-10-13 15:44:34
123
原创 从二叉树开始刷起(三)—— 二叉搜索树一个很重要的性质
首先我觉得我们有必要了解一些二叉搜索树的基本特征,可以参考数据结构(二):二叉搜索树(Binary Search Tree)其中还有一个很重要的特征我们需要单独放在这提醒自己:BST 的中序遍历结果是有序的(升序)。我们先来看一道常规题目:230. 二叉搜索树中第K小的元素利用上面的性质,我们很容易就想到直接构造中序遍历结果如何返回第K大的元素:class Solution: def kthSmallest(self, root: Optional[TreeNode], k: int)
2021-10-13 15:42:16
196
原创 从二叉树开始刷起(二)—— 初识BFS、DFS,实践序列化与反序列化
在上一篇从二叉树开始刷起(一)—— 熟悉递归套路中我们看了几道二叉树前、中、后序遍历的题,在这一节的开始,我觉得有必要先了解一下二叉树的层序遍历应该怎么做。以便引出后面的话题。首先看一道普通的层序遍历的题:102. 二叉树的层序遍历这道题刚读完题目其实是需要注意一点,就是其输出其实是一个二维的数组,所以在安排输出的时候我们也需要注意一下,那我们分析一下这道题应该怎么做吧。首先我们来看一下还是传统递归的方式,其实也就是DFS的解法,从最开始的根节点开始,对每一层我们都把对应那一层的根节点加入到对应层
2021-10-11 15:01:01
163
2
原创 从二叉树开始刷起(一)—— 熟悉递归套路
最近想着系统地刷一些题,找了许多资料与课程,最终发现labuladong的刷题方案比较适合我,于是开始按照labuladong 的算法小抄开始刷题,希望自己能够坚持下来,要一直成长,加油。226. 翻转二叉树翻转二叉树:# Definition for a binary tree node.# class TreeNode:# def __init__(self, val=0, left=None, right=None):# self.val = val#
2021-10-11 08:39:42
260
原创 查漏补缺之(二)—— 后BERT时代-XLNET、RoBERTa、ALBERT、ELECTRA
后BERT时代-XLNET、RoBERTa、ALBERT、ELECTRA的模型概览
2021-04-06 17:57:57
662
原创 项目总结(一)__百度AI studio比赛--汽车大师问答摘要与推理
百度AI studio比赛--汽车大师问答摘要与推理项目选用模型、方法、实现思路、代码。
2021-03-05 00:56:04
1474
5
原创 语言模型(五)—— Seq2Seq、Attention、Transformer学习笔记
干货 !长文!Seq2Seq、Attention、Transformer学习笔记,详解NLP入门真正的基石;
2020-12-02 03:08:21
1831
原创 语言模型(四)—— Word Embedding之Word2vec
介绍了常用的文本表征方式;word2vec的两种模型、两种优化方法及其原理。以及优缺点比较总结
2020-09-22 00:39:32
2454
原创 语言模型(三)—— 循环神经网络语言模型(RNNLM)与语言模型评价指标
RNNLM,循环神经网络的基本结构与训练过程、优缺点;语言模型的评价指标说明。
2020-09-18 00:47:11
6224
原创 语言模型(一)—— 统计语言模型n-gram语言模型
从传统的语言模型到统计语言模型,深入了解n-gram语言模型的原理、计算方法、优缺点等。
2020-09-13 17:54:47
6774
1
原创 AI练手系列(四)—— cnews中文文本分类(RNN实现)
pytorch下实现cnews中文文本分类;使用RNN及其变种模型LSTM、GRU;代码翔实,注释啰嗦,记录在此以便复习查阅。
2020-07-19 00:56:29
4348
2
原创 AI练手系列(三)—— RNN实现mnist手写数字识别
RNN实现mnist手写数字识别,使用pytorch中自带的LSTM、RNN、GRU模型进行训练,准确率最后还挺不错的,经典数据集练手,你值得一试。
2020-07-16 17:59:04
4291
2
原创 AI练手系列(二)—— RNN之飞机乘客预测
AI练手系列(二)—— RNN之飞机乘客预测。使用RNN模型;同时对比传统线性回归模型和多项式的非线性回归模型;代码翔实,结果可视。
2020-07-16 09:01:32
1740
1
原创 AI练手系列(一)—— 利用Pytorch训练CIFAR-10数据集
本文通过记录在pytorch中训练CIFAR-10数据集的一些过程,实现一个基本的数据集的分类,并在此过程中加强对图片、张量、CNN网络的理解,并尝试去总结一些训练技巧,记录一个新手对数据及网络的理解。CIFAR—10数据集CIFAR-10数据集包含10个类别的60000个32x32彩色图像,每个类别6000个图像。 有50000张训练图像和10000张测试图像。数据集地址如下:The CIFAR-10 dataset示例如下:接下来我们要做的事情便是利用各种CNN的网络模型,在训练集上训练
2020-06-16 00:56:04
17664
5
原创 CNN学习笔记——CNN是怎么做到图像识别的?
——CNN初识笔记CNN的由来及发展(包含图像识别的思路)刚接触CNN的时候,很懵。CNN?到底是什么?美国有线电视新闻网?哦,卷积神经网络(Convolutional Neural Networks)啊!为什么要叫这个名字,他又是怎么来的呢?先思考一个问题:如果给你一张图片,你是怎么去识别图片里的内容的?一般我们应该会用到两样东西吧,那就是记忆和经验,这些东西我们也可以称之为知识,也就是对于一个图像识别任务我们必须认识过跟他同类的才能准确地识别它,这个就有意思了,和我们有监督学习的过程不就是一样.
2020-06-15 01:04:58
9236
flights.csv
2020-07-16
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人