天使Di María
人工智能、深度学习、计算机视觉、NLP、BCI。有偿答疑/资料/代码:2301182699@qq.com
展开
-
一封来自hitwh的保研经历分享
这个实验室属于FDU基础医学院下的实验室——MICCAI。生物医学工程属于工学学位。buaa的cs很强,毫无疑问。因为哈本的英才,导致硕士名额稀缺,所以我一门课的老师把她的老师推给了我,这个老师也是招生组的,几乎没有硕士,所以让我报直博。哈本计算机学分等级为A,挺不错的,但是导师水平比其他A的会弱一点(平均)。双脑中心只招收直博生,导师轮换制,偏向生物实验,且平均延毕一年半。【师扬老师至少发过3篇nature,其中一个是nature封面;斯科老师是个非常大的组;原创 2023-10-01 16:17:22 · 349 阅读 · 0 评论 -
中科大大数据学院2023年保研夏令营机试题目【无offer,直接放题了~】(2023.07.22下午14:35-17:35考试)
给定一串数字,最后一个数是0表示结尾,表示数字串的终止,为无效数字。将该数字串存储在双向链表中,判断是否为回文串,若是,则输出Yes,否则输出No.原创 2023-07-27 16:27:46 · 1327 阅读 · 4 评论 -
2023推免(夏令营+套实验室)面试总结(博文附问题汇总和参考答案)
2023推免(夏令营+套实验室)面试总结(博文附问题汇总和参考答案)原创 2023-07-01 16:15:57 · 1359 阅读 · 0 评论 -
【算法基础】并查集⭐⭐⭐⭐⭐【思路巧,代码短,面试常考】
并查集,在一些有N个元素的集合应用问题中,我们通常是在开始时让每个元素构成一个单元素的集合,然后按一定顺序将属于同一组的元素所在的集合合并,其间要反复查找一个元素在哪个集合中。这一类问题近几年来反复出现在信息学的国际国内赛题中。其特点是看似并不复杂,但数据量极大,若用正常的数据结构来描述的话,往往在空间上过大,计算机无法承受;即使在空间上勉强通过,运行的时间复杂度也极高,根本就不可能在比赛规定的运行时间(1~3秒)内计算出试题需要的结果,只能用并查集来描述。原创 2023-02-18 11:26:35 · 527 阅读 · 0 评论 -
ChatGPT底层原理及教程
GPT(Generative Pre-training Transformer,生成预训练变压器)是由OpenAI在2018年开发的一种语言模型【和Bert是类似的】,在广泛的自然语言处理任务中取得了最先进的结果。它最初由Alec Radford, Karthik Narasimhan, Tim Salimans和Ilya Sutskever在2017年的一篇论文中介绍。GPT的关键思想是在大量文本数据上以无监督的方式预训练一个大型变压器模型,然后在下游任务上使用较少的标记数据进行微调。原创 2023-02-15 22:36:50 · 14756 阅读 · 2 评论 -
Dropout的原理与细节?
Dropout是通过使得每个神经元以一定的概率停止工作来接缓解过拟合问题。dropout(随机失活):dropout是通过遍历神经网络每一层的节点,然后通过对该层的神经网络设置一个keep_prob(节点保留概率),即该层的节点有keep_prob的概率被保留,keep_prob的取值范围在0到1之间。通过设置神经网络该层节点的保留概率,使得神经网络不会去偏向于某一个节点(因为该节点有可能被删除),从而使得每一个节点的权重不会过大,有点类似于L2正则化,来减轻神经网络的过拟合。原创 2023-02-09 19:53:23 · 844 阅读 · 0 评论 -
【深度学习基础7】预训练、激活函数、权重初始化、块归一化
得益于 Hinton and Salakhutdinov 在 2006 年的开创性工作— 无监督预训(unsupervised pre-training);在《Reducing the dimensionality of data with neural networks.》这篇论文中,他们在 RBMs 中引入无监督预训练,下面我们将在Autoencoders中讲解这一方法(建议了解Restricted 玻尔兹曼机):经过这一步后,第一层的权重被训练,使得 h1 捕获输入 x 的重要信息。原创 2023-02-09 19:12:55 · 772 阅读 · 0 评论 -
【深度学习基础8】卷积神经网络& 经典网络
【深度学习基础8】卷积神经网络原创 2023-02-08 23:57:22 · 276 阅读 · 0 评论 -
【深度学习基础6】自编码器及其变体
【深度学习基础6】自编码器及其变体原创 2023-02-05 22:02:19 · 459 阅读 · 0 评论 -
【深度学习基础3】Sigmoid 神经元和多层 Sigmoid 神经元网络
我们了解了感知机可以解决所有的布尔函数,方法是隐藏层的个数为2(输入个数为n),每个隐藏层对饮一种输入情形,当对应的情形被输入时,对应的那一个神经元开火,输出1,其余全为0。但是实际任务中,输入不是非0即1的,那么我们如何实现任意的函数 y = f(x)呢???原创 2023-02-05 18:45:12 · 511 阅读 · 0 评论 -
【深度学习基础2】生物神经元与感知机
感知器是人工神经网络中的一种典型结构, 它的主要的特点是结构简单,对所能解决的问题 存在着收敛算法,并能从数学上严格证明,从而对神经网络研究起了重要的推动作用。原创 2023-02-05 14:17:01 · 969 阅读 · 0 评论 -
【深度学习基础1】深度学习发展历史
早在 18 世纪初,科学家就提出了“所有生物组织都是由细胞组成”的假设。然而,神经组织一直是个例外,因为人们始终无法找到神经细胞。1871 年, 德国解剖学家 Joseph von Gerlach 认为神经系统是一个单一的互联网状结构,中间不存在任何断点,也没有所谓「独立神经细胞」原创 2023-02-05 12:17:11 · 635 阅读 · 0 评论 -
【深度学习基础4】反向传播算法
反向传播算法适合于多层神经元网络的一种学习算法,它建立在梯度下降法的基础上。反向传播算法网络的输入输出关系实质上是一种映射关系:一个n输入m输出的BP神经网络所完成的功能是从n维欧氏空间向m维欧氏空间中一有限域的连续映射,这一映射具有高度非线性。反向传播算法就是神经网络中加速计算梯度值的方法,但计算机中通常采用计算图来予以计算。原创 2023-02-03 18:25:59 · 218 阅读 · 0 评论 -
激活函数有哪些?分别有哪些优缺点?【Sigmoid、tanh、ReLU、Leaky ReLU、ParametricReLU】
常见的激活函数有哪些?分别有哪些优缺点?【Sigmoid、tanh、ReLU、Leaky ReLU、ParametricReLU】原创 2023-02-01 13:56:15 · 528 阅读 · 0 评论 -
【算法基础】快速排序(分治思想)⭐⭐⭐
快速排序算法通过多次比较和交换来实现排序,其排序流程如下:(1)首先设定一个分界值,通过该分界值将数组分成左右两部分。(记左端为L,最右端为R)(2)将大于或等于分界值的数据集中到数组右边,小于分界值的数据集中到数组的左边。此时,左边部分中各元素都小于分界值,而右边部分中各元素都大于或等于分界值。(3)然后,左边和右边的数据可以独立排序。对于左侧的数组数据,又可以取一个分界值,将该部分数据分成左右两部分,同样在左边放置较小值,右边放置较大值。右侧的数组数据也可以做类似处理。原创 2023-01-27 14:42:34 · 730 阅读 · 5 评论 -
【算法基础】归并排序(原理、过程、例题、代码)⭐⭐⭐
【算法基础】归并排序(原理、过程、例题、代码)原创 2023-01-27 15:56:48 · 494 阅读 · 1 评论 -
Adaboost算法的原理与思想?【Bagging、Boosting、Stacking】
Adaboost算法的原理与思想?【Bagging、Boosting、Stacking】原创 2023-01-26 18:26:06 · 708 阅读 · 0 评论 -
CNN中池化层的作用?池化有哪些操作?
CNN中池化层的作用?池化有哪些操作?原创 2023-01-25 19:51:44 · 2861 阅读 · 0 评论 -
深度学习流行的框架有哪些?分别有什么特点
深度学习流行的框架有哪些?分别有什么特点原创 2023-01-25 18:05:09 · 1110 阅读 · 2 评论 -
梯度下降算法有哪些?有什么区别?【背景、原理、公式、代码】
梯度下降算法有哪些?有什么区别?【背景、原理、公式、代码】原创 2023-01-25 13:47:07 · 843 阅读 · 2 评论 -
机器学习为什么使用归一化? 有哪些归一化算法?
机器学习为什么使用归一化? 有哪些归一化算法?原创 2023-01-24 19:38:21 · 684 阅读 · 0 评论 -
【SVM原理推导】核SVM为什么能分类非线性问题?
【SVM原理推导】核SVM为什么能分类非线性问题?原创 2023-01-24 15:10:41 · 1549 阅读 · 0 评论 -
有监督学习、无监督学习、半监督学习有什么区别?分别有哪些代表算法?
有监督学习、无监督学习、半监督学习有什么区别?分别有哪些代表算法?原创 2023-01-23 18:58:20 · 5438 阅读 · 0 评论 -
分类算法有哪些? 回归与分类有什么区别?
分类算法有哪些? 回归与分类有什么区别?原创 2023-01-22 21:49:42 · 939 阅读 · 0 评论 -
P问题、NP问题、NP-Complete问题、NP-Hard问题分别代表什么含义?
P问题、NP问题、NP-Complete问题、NP-Hard问题分别代表什么含义?原创 2023-01-22 13:03:19 · 1471 阅读 · 0 评论 -
学习率为什么要逐渐衰减?
学习率为什么要逐渐衰减?原创 2023-01-21 14:24:32 · 840 阅读 · 0 评论 -
Batchsize的大小怎样设置?Batchsize过大和过小有什么影响
Batchsize的大小怎样设置?Batchsize过大和过小有什么影响。batch_size:表示单次传递给程序用以训练的数据(样本)个数。如果我们的数据集钟含有的样本总数为12800个样本,batch_size=128,那么就需要10个batch才能够训练完一个epoch。原创 2023-01-21 14:06:18 · 18590 阅读 · 4 评论