
算法(java与python)
文章平均质量分 64
分析算法,同时对比Java语言与python语言使用细节
蕊在花中羞涩
起点低,当下净,回头脏,平常路
展开
-
机器学习算法:Adaboost算法
但是该算法在实现过程中为取得更高的检测精度则需要较大的训练样本集,在每次迭代过程中,训练一个弱分类器则对应该样本集中的每一个样本,每个样本具有很多特征,因此从庞大的特征中训练得到最优弱分类器的计算量增大。在选择具有最小误差的弱分类器之后,对每个样本的权值进行更新,增大错误分类的样本对应的权值,相对地减小被正确分类的样本权重。该算法的核心思想是通过对样本的权重进行调整,使得每次迭代中分类错误的样本在后续的分类中受到更多的关注,从而使得每个弱分类器都能专注于之前被错误分类的样本。原创 2024-06-12 21:25:43 · 388 阅读 · 0 评论 -
机器学习算法:K均值算法
k均值聚类算法(k-means clustering algorithm)是一种迭代求解的聚类分析算法,其步骤是,预将数据分为K组,则随机选取K个对象作为初始的聚类中心,然后计算每个对象与各个种子聚类中心之间的距离,把每个对象分配给距离它最近的聚类中心。K均值聚类算法是一种广泛使用的聚类分析方法,其基本原理是将数据集划分为K个簇,每个簇由其质心(即簇中所有点的中心)描述。该算法通过迭代优化过程,将数据集中的每个点分配到最近的质心所形成的簇中,并更新每个簇的质心,直到质心不再发生变化或达到预设的终止条件。原创 2024-06-12 21:19:21 · 498 阅读 · 0 评论 -
机器学习算法:K最近邻算法
K最近邻(KNN,K-NearestNeighbor)分类算法是指数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是K个最近的邻居的意思,说的是每个样本都可以用它最接近的K个邻居来代表。KNN算法的核心思想是如果一个样本在特征空间中的K个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。KNN方法在类别决策时,只与极少量的相邻样本有关。原创 2024-06-12 21:14:55 · 607 阅读 · 0 评论 -
机器学习算法:朴素贝叶斯
和决策树模型相比,朴素贝叶斯分类器发源于古典数学理论,有着坚实的数学基础,以及稳定的分类效率。虽然这个简化方式在一定程度上降低了贝叶斯分类算法的分类效果,但是在实际的应用场景中,极大地简化了贝叶斯方法的复杂性。朴素贝叶斯算法假设了数据集属性之间是相互独立的,因此算法的逻辑性十分简单,并且算法较为稳定,当数据呈现不同的特点时,朴素贝叶斯的分类性能不会有太大的差异。数据集属性的独立性在很多情况下是很难满足的,因为数据集的属性之间往往都存在着相互关联,如果在分类过程中出现这种问题,会导致分类的效果大大降低。原创 2024-06-12 21:00:15 · 341 阅读 · 0 评论 -
机器学习算法:SVM
在使用核方法的非线性学习中,SVM的稳健性和稀疏性在确保了可靠求解结果的同时降低了核矩阵的计算量和内存开销。与其它线性分类器的关系:SVM是一个广义线性分类器,通过在SVM的算法框架下修改损失函数和优化问题可以得到其它类型的线性分类器,例如将SVM的损失函数替换为logistic损失函数就得到了接近于logistic回归的优化问题。从分类的准确性而言,多核SVM具有更高的灵活性,在总体上也优于使用其核函数族中某个单核计算的标准SVM,但非线性和依赖于样本的核函数族构建方法不总是更优的。原创 2024-06-12 20:55:02 · 321 阅读 · 0 评论 -
机器学习算法:逻辑回归
它们的模型形式基本上相同,都具有 w‘x+b,其中w和b是待求参数,其区别在于他们的因变量不同,多重线性回归直接将w‘x+b作为因变量,即y =w‘x+b,而logistic回归则通过函数L将w‘x+b对应一个隐状态p,p =L(w‘x+b),然后根据p 与1-p的大小决定因变量的值。在逻辑回归中,这是最常见的使用方法,更概括地说,它是二元分类最常见的分类器之一。logistic回归的因变量可以是二分类的,也可以是多分类的,但是二分类的更为常用,也更加容易解释,多类可以使用softmax方法进行处理。原创 2024-06-12 20:45:52 · 281 阅读 · 0 评论 -
机器学习算法:随机森林算法
在机器学习中,随机森林是一个包含多个决策树的分类器, 并且其输出的类别是由个别树输出的类别的众数而定。Leo Breiman和Adele Cutler发展出推论出随机森林的算法。而 "Random Forests" 是他们的商标。这个术语是1995年由贝尔实验室的Tin Kam Ho所提出的随机决策森林(random decision forests)而来的。原创 2024-06-12 20:39:10 · 798 阅读 · 0 评论 -
机器学习算法:决策树
决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。它是一种监督学习,所谓监督学习就是给定一堆样本,每个样本都有一组属性和一个类别,这些类别是事先确定的,那么通过学习得到一个分类器,这个分类器能够对新出现的对象给出正确的分类。树中每个节点表示某个对象,而每个分叉路径则代表的某个可能的属性值,而每个叶结点则对应从根节点到该叶节点所经历的路径所表示的对象的值。原创 2024-06-12 20:25:17 · 395 阅读 · 0 评论 -
二分查找(用算法题讲解java与python使用注意细节)
题目:给定一个n个元素有序的(升序)整型数组nums 和一个目标值target ,写一个函数搜索nums中的 target,如果目标值存在返回下标,否则返回 -1。Java:注意事项:1.括号及对齐方式 2.数组:Integer[] a = {-1,0,3,5,9,12}; 2.数据类型转换:(大>>>小)需要强制转换 3.while用法:不可while(Tr...原创 2021-12-20 20:13:41 · 830 阅读 · 0 评论