人工智能
文章平均质量分 85
美味不是堡
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【机器学习笔记】无监督学习 聚类 K-means
前面讲到的回归就是一种典型的监督学习算法,需要我们标注数据集和期望结果集。但是日常生活中往往没有准确的期望值给我们,比如说我如何在上万文章中分类?同一文章所属的类别可否不同?这些问题使用回归就无法很好的给出解释并预测新结果,这时候就需引入无监督学习,即🧐而就是典型的一个无监督学习算法,通俗点来讲就是将数据集分成一类一类,怎么分?分成几类就是我们下面要讨论的问题如下图例子原创 2023-09-17 18:02:57 · 231 阅读 · 1 评论 -
【机器学习笔记】正则化
正则化用于解决过拟合问题是一个非常好的方法!!通过限制某个项对应的权重来削减其对模型的影响,同时又保留该项不至于删掉特征值导致模型不够完整。原创 2023-09-15 17:34:18 · 380 阅读 · 1 评论 -
【机器学习笔记】逻辑回归
之前我们学习了线性回归,但是我们发现线性回归往往不能够很好的做分类问题,此时就需要引出另一个回归模型即是逻辑回归。原创 2023-09-14 21:58:53 · 195 阅读 · 1 评论 -
scikit-learn包如何使用?
在学习完线性回归后,我们就会想到Python有没有带相关的包让我们开发者更快上手呢?scikit-learn就是一个功能强大的包,其中提供了回归,分类等等实现接口!!原创 2023-09-14 11:29:01 · 171 阅读 · 1 评论 -
【机器学习笔记】线性回归模型(单特征值与多特征值)
在机器学习的监督学习中最常用的算法就是回归算法,而线性回归又是其中之一。原创 2023-09-13 14:53:37 · 1278 阅读 · 3 评论 -
[人工智能导论学习笔记] MCTS
总的来说,算法遍历时先从根节点出发,对子节点做UCB1算法,筛选出相应的子节点后就可以判断如果是叶子节点且没有被遍历过 -->rollout如果是叶子节点且已经被遍历过 -->expansion如果不是叶子节点(比如中间的那一层节点) -->应该继续通过UCB1算法筛选出下一个需要遍历的节点适用于大分支因子的搜索树,而且可以通过硬件提升大量rollout的并行化。原创 2023-09-04 12:08:00 · 488 阅读 · 1 评论 -
[人工智能导论学习笔记] Minimax
剪枝往往结果是好的,能减少不必要的递归提升效率,但是其本质任然是一个深度遍历递归,当通过评估函数得到的评估值很极端时就会导致剪不了几条枝叶,达不到提升性能的目的(像上面这个例子,基本上就剪了一条无关紧要的,其他还是得遍历🙃)Minimax - 当我们的对手表现最佳时使用,可以使用α-β修剪进行优化。万一遇上不太聪明的队手呢。。。Minimax提供了比expectimax更保守的操作,因此往往当对手未知时,会产生有利的结果。原创 2023-09-02 03:05:39 · 3142 阅读 · 1 评论 -
[人工智能导论学习笔记] CSP
即是在满足所有变量的约束条件下,达到目标结果。原创 2023-08-29 00:32:23 · 915 阅读 · 1 评论
分享