
牛客网-算法工程师面试题库
文章平均质量分 66
牛客网-算法工程师面试题库
程序员豪仔
一个任何事物,除了编程,都喜欢尝试的程序员,豪仔。
展开
-
软件测试与检验 Software Testing and Inspection
Learning outcomes:On successful completion of this module, students will be able to take a program specification and write appropriate test cases for it; given a specification and an implementation of a program, write the appropriate tests, run them, a原创 2022-07-09 13:32:52 · 1182 阅读 · 1 评论 -
Azure微软云
Azure 虚拟网络 (VNet) 是 Azure 中专用网络的基本构建块。VNet 使多种类型的 Azure 资源(例如 Azure 虚拟机 (VM))能够安全地相互通信、Internet 和本地网络。VNet 类似于您在自己的数据中心中运行的传统网络,但它带来了 Azure 基础架构的其他优势,例如规模、可用性和隔离性。Azure 虚拟网络使 Azure 资源能够安全地相互通信、Internet 和本地网络。可以使用虚拟网络完成的关键方案包括 - Azure 资源与 Internet 的通信、Azure原创 2022-07-01 14:52:55 · 735 阅读 · 0 评论 -
卷积神经网络和全连接网络的根本不同之处在哪里
解题思路卷积神经网络至少包含一个卷积层,且最后一层通常是全连接层;全连接网络没有卷积层,只使用全连接层(以及非线性层)。所以关键是理解卷积层和全连接层的区别。全连接层全连接,顾名思义,上一层的所有神经元要和下一层的每个神经元都链接,比如上一层有4096个神经元,下一层有10个神经元,那么计算方式如下:所以全连接层有三个特点:关注全局信息(每个点都和前后层的所有点链接)参数量巨大,计算耗时输入维度需要匹配(因为是矩阵运算,维度不一致无法计算)卷积层这个卷积和信号系统中的卷积不太一样,其实就是一个简单的乘加运算原创 2022-06-15 14:05:51 · 5674 阅读 · 3 评论 -
说一说xgboost和lightgbm的区别是什么
前面提到了,LightGBM是Xgboost的更高效实现, 由微软发布。XGBoost的并行是在特征粒度上的。我们知道,决策树的学习最耗时的一个步骤就是对特征的值进行排序(因为要确定最佳分割点),XGBoost在训练之前,预先对数据进行了排序,然后保存为block结构,后面的迭代中重复地使用这个结构,大大减小计算量。这个block结构也使得并行成为了可能,在进行节点的分裂时,需要计算每个特征的增益,最终选增益最大的那个特征去做分裂,那么各个特征的增益计算就可以开多线程进行。LightGBM相比于Xgboos原创 2022-06-15 14:04:06 · 1673 阅读 · 0 评论 -
谈一谈决策树的实现逻辑 信息增益、信息增益率公式
决策树的实现逻辑:决策树是最简单的机器学习算法,可解释性强,直观易懂的结构,完全符合人们的直观思维,有着广泛的应用。决策树算法采用树形结构,使用层层推理来实现最终的分类,决策树由下面集中元素组成:根节点:包含样本的全集内部节点:对应特征属性测试叶节点:代表决策的结果预测时,在树的内部节点处用某一属性值进行判断,根据判断结果决定进入哪个分支节点,直到到达叶节点处,得到分类结果。这是一种基于if-then-else规则的有监督学习算法,决策树的这些规则通过训练得到,而不是人工制定的。信息增益的公式信息增益=信息原创 2022-06-15 13:58:07 · 621 阅读 · 0 评论 -
介绍一下SVM,遇到线性不可分怎么办,核函数有什么特点
从上面的介绍中可以发现,SVM显然是线性分类器,但是数据上线性不可分该怎么办。数据在原始空间上,即输入空间,线性不可分,但是映射到高维空间,即特征空间,后很可能就线性可分了。但是映射到一个高维空间同时带来一个问题:在高维空间上求解一个带约束的优化问题显然比在低维空间上计算量要大得多,这就是所谓的“维数灾难”。这时候就需要一个核函数,隐形地将样本从原始特征空间映射到更高维的空间,并解决原始特征问题的线性不可分问题。核函数虽然将特征从低维到高维的转换,但是它事先从低维开始计算,而将实质上的分类效果表现在了高维上原创 2022-06-04 16:04:40 · 996 阅读 · 0 评论 -
请你说说回归问题可以设置支持向量机吗
支持向量机(SVM)分类的方法可以推广到回归问题里面称作支持向量回归(SVR)。与传统的线性回归方法不同的是,传统方法是一个样本只要不算正好落在作为模型的线性函数上,就要被计算损失,当且仅当回归f(x)完全等于y时才认为是预测正确,反之需要计算其损失 ;而SVR是宽容的回归模型,在线性函数两侧制造一个“间隔带”,对于所有落入间隔带内的样本不计入损失,认为只要是f(x)与y偏离程度不要太大,既可认为预测正确,不用计算其损失。间隔带之外,计入损失函数,之后通过最小化间隔带的宽度与总损失与总损失来最优化模型。具体原创 2022-06-03 16:32:19 · 283 阅读 · 0 评论