旧
文章平均质量分 96
机器学习-联邦学习
编译原理
乔璐356
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
ccf小明放学100分C++
100分#include<bits/stdc++.h>using namespace std;int main(){ int n; int r,y,g,t,tm; cin>>r>>y>>g; cin>>n;//交通灯:r-> g-> y//输入 r=1,y=2,g=3 long long now.原创 2020-09-11 20:33:09 · 259 阅读 · 0 评论 -
17考研题解析——计网部分(待补充)
47.(9分)甲乙双方均采用后退N帧协议(GBN)进行持续的双向数据传输,且双方始终采用捎带确认,帧长均为1000 B。Sx,y和Rx,y分别表示甲方和乙方发送的数据帧,其中:x是发送序号;y是确认序号(表示希望接收对方的下一帧序号);数据帧的发送序号和确认序号字段均为3比特。信道传输速率为100 Mbps,RTT=0.96 ms。下图给出了甲方发送数据帧和接收数据帧的两种场景,其中 t ...原创 2020-01-17 10:56:49 · 10168 阅读 · 26 评论 -
自下而上的分析法——算符优先分析法
<linkhref=“https://csdnimg.cn/release/phoenix/template/css/ck_htmledit_views-211130ba7a.css”rel=“stylesheet”> <divclass=“htmledit_views” id=“content...转载 2020-05-05 20:22:56 · 1040 阅读 · 0 评论 -
深度学习中的Normalization
1. 为什么需要 Normalization1.1 独立同分布与白化独立同分布的数据可以简化常规机器学习模型的训练、提升机器学习模型的预测能力,所以经常认为数据应该满足独立同分布,即independent and identically distributed,简称为 i.i.d( 独立同分布并非所有机器学习模型的必然要求(比如 Naive Bayes 模型就建立在特征彼此独立的基础之上,...转载 2019-04-01 19:16:45 · 593 阅读 · 0 评论 -
贝叶斯
一 、基本概念及公式基于观测做假设,我们需要做两件事情:1. 算出各种不同假设的可能性大小。2. 算出最靠谱的假设是什么。第一个就是计算特定假设的后验概率,对于连续的假设空间则是计算假设的概率密度函数。第二个则是所谓的模型比较,模型比较如果不考虑先验概率的话就是最大似然方法。贝叶斯提出了一种观念:概率需要加入先验概率的考虑。先验概率也就是说,我们先设定一个假设(或信念,belief)。然后...转载 2019-03-14 21:18:15 · 402 阅读 · 0 评论 -
熵、相对熵、互信息
在学习AdaBoost之前,建议了解的预备知识,包括概率论(用于公式推导)、信息的基础知识,有利于理解算法思路的来龙去脉。此处附上原博客地址:https://blog.youkuaiyun.com/xierhacker/article/details/53463567一.什么是熵Ⅰ.信息量首先考虑一个离散的随机变量x,当我们观察到这个变量的一个具体值的时候,我们接收到多少信息呢? 我们暂时把信息看做在学习x...转载 2019-04-20 21:19:28 · 1302 阅读 · 0 评论 -
Adaboost 理论来源,公式推导,代码实现
最近 看了一下AdaBoost,发现几篇博文写的蛮清晰的,分享一下辣 Y(~_~)Y在学习AdaBoost之前,建议了解的预备知识,包括概率论(用于公式推导)、信息的基础知识,有利于理解算法思路的来龙去脉。此处附上原博客地址:预备知识 博文0以下有几篇不错的博文推荐:1.先大致了解一下原理,对公式混个眼熟:博文1(喜欢看图解的话看这里)2.内容蛮多的的一片,包括部分公式推导、算...原创 2019-04-21 11:51:01 · 307 阅读 · 0 评论
分享