
Algorithm
算法及数据结构相关的学习笔记,包括基础数据结构,算法,数学基础,机器学习,深度学习,及相关的框架及算法的知识点讲解汇总。
卷儿哥
职业程序猿,全栈(干)攻城狮
展开
-
使用Accord.NET识别图片中的人脸数量
最近在看《C#神经网络编程》的时候,发现了一个使用C#检测图片中人脸的程序实例,就自己亲手用Sunny.UI搭建了一个WinForm项目实践了一遍,效果还可以,实例中检测识别人脸的框架类库用的是 Accord.NET Framework,也是基于C#语言编写的。原创 2020-05-30 17:53:50 · 2245 阅读 · 0 评论 -
算法学习笔记之散列表与非线性表结构
记录一些关于散列表与非线性表结构,包括二叉树,红黑树,堆,图等相关数据结构的学习笔记,接上一篇《算法学习笔记之复杂度分析与线性表》原创 2020-05-25 14:47:41 · 672 阅读 · 0 评论 -
算法学习笔记之递归排序与查找
算法学习笔记系列,这篇主要总结汇总一下基础算法中的递归,排序,查找。是接上一篇关于基础数据结构的《算法学习笔记之复杂度分析与线性表》原创 2020-05-24 10:57:55 · 442 阅读 · 0 评论 -
算法学习笔记之复杂度分析与线性表
总结汇总一些关于算法时间和空间复杂度分析的表示方法和10种数据结构中的线性表结构(数组、链表、栈、队列)。原创 2020-05-23 09:24:07 · 600 阅读 · 0 评论 -
人工智能笔记之机器学习原理
学习完数学理论就差不多该开始学习机器学习的原理了,现在流行的深度学习和强化学习,基本都是基于机器学习的原理,机器学习是基础,所以需要先了解机器学习是什么,怎么实现的。原创 2020-03-25 09:42:04 · 932 阅读 · 0 评论 -
Win10下GPU版TensorFlow安装
开始学习深度学习时,一般都得安装一个TensorFlow,我选择安装一个GPU版本的,因为GPU版本的比CPU版本的计算性能高,TensorFlow在GPU上运行的速度比在CPU上快得多,以前用显卡来玩游戏做视觉渲染,现在用显卡来玩深度学习,比较有趣。原创 2020-03-23 06:23:18 · 605 阅读 · 0 评论 -
人工智能-高等数学之偏导数与梯度
在一元函数中,导数就是函数的变化率。对于二元函数研究它的“变化率”,由于自变量多了一个,情况就要复杂的多。二元函数可以用z=f(x,y)表示,如果把f(x,y)中的两个变量图像化,将得到空间的某个曲面,如果分析f(x,y)的变化速度,必然要用到导数,只不过这次是对含有两个变量的函数求导,但我们只对一个变量求导,只观察这一个变量的变化,所以叫做求偏导。原创 2020-03-22 10:25:06 · 1186 阅读 · 0 评论 -
Markdown编写数学公式实例大全
平时写博客尤其是关于一些数学方面的,就免不了用复杂的数学公式,而采用粘贴图片的方式肯定是不好的,即不方便又影响美观,而且一点儿事儿也不省,还不如老老实实的用KaTeX编写数学公式,既美观又清晰,所以我结合我的日常使用情况,汇总了几篇博文中一些常用的Markdown数学公式语法,感觉已经特别全了原创 2020-03-19 14:16:31 · 1356 阅读 · 0 评论 -
人工智能-高等数学之微积分篇
微分和导数外形很相似,导致有时候傻傻的分不清楚,在查找无数资料之后我找到了一个能够被理解的说法,导数描述的是函数在一点处的变化快慢的趋势,是一个变化的速率,微分描述的是函数从一点(移动一个无穷小量)到另一点的变化幅度,是一个变化的量。原创 2020-03-18 23:11:07 · 1419 阅读 · 0 评论 -
人工智能-高等数学之导数篇
微积分主要包括包括极限、微分学、积分学及其应用,而微分学包括求导数的运算,是一套关于变化率的理论。研究函数的变化规律,推导事物发展的趋势走向是它的拿手好戏,印象里,上学时,学习的顺序是,数列,极限,函数,导数,微分,积分,当然也有很多数学家说先学积分,因为积分直观比较容易被理解。原创 2020-03-17 23:08:24 · 641 阅读 · 0 评论 -
人工智能-线性代数之矩阵篇
在这一篇中,我们开始汇总学习人工智能中线性代数最最最重要的一部分,那就是矩阵的运算,几乎所有人工智能机器学习的算法都离不开矩阵的运算,换句话说,就是所有的人工智能都是基于大量的数据在矩阵中进行各种庞杂而基础的运算和变换,从而找出其中的规律,最后训练出数学模型的。原创 2020-03-17 09:00:44 · 2775 阅读 · 0 评论 -
人工智能-线性代数之向量篇
在机器学习中线性代数是及其重要的数学工具,因为训练数据时会进行大量的矩阵运算,所有的线性方程计算都会转化成矩阵的计算,训练模型时所需要的计算量是巨大的,而全部转化为矩阵会缩短计算的时间,极大的提升计算速度,而且很多方程只能通过向量化的形式来解,代数与几何密不可分,可以相互的转化,这也正是数学的魅力所在。本篇重点总结向量和行列式的知识点.....原创 2020-03-16 10:00:22 · 852 阅读 · 0 评论