- 博客(6)
- 收藏
- 关注
原创 CS234 RL Winter
文章目录IntroMarkov (Decision / reward) process lecture 1 Intro rrr Reward function, can be a function of $r(s) $or r(s,a)r(s,a)r(s,a) sss, state aaa, action hhh: history γ\gammaγ: discount factor mathematically convenient. γ=0\gamma = 0γ=0: only care abou
2021-07-17 10:01:51
338
原创 cs120
CSE 120前言Lecture 3Reading [chapter 6](https://pages.cs.wisc.edu/~remzi/OSTEP/cpu-mechanisms.pdf)Two modes: User mode and kernel modetrap tabletwo phases in the limited direct execution (LDE) protocol.切换进程concurrencyLecture 3Handling FaulsSystem callsLectur
2021-06-21 06:39:00
449
原创 cse123 computer networks
文章目录Lecture 5 Lecture 5 stop and wait- 一个一个发 收到之后/time out发下一个 sender要加上sequence number receiver的ack也要加上sequence propagation dellay是吧package发过去再收回来。最快是光速 Go back N:receiver只ack最高的连续的收到的package 如果中间的丢失,那么sender要重发后面的 sliding window window length = bandwid
2021-04-28 15:44:27
362
1
原创 Bert源码解读
谈一谈自己的理解。 Transformer 讲的最好的一篇(我认为) 用pytorch一步步实现 他的multihead应该是错的,不应该吧embediing分开,而应该有多个Q,K,V 错误解决方案请看这篇,或者中文版,并且讲述了bert,吧所有head的output拼在一起,并训练WoW_oWo使其回归到原来的大小 attention的输出是每一个词的embedding,somehow有其他词的attention。每个词是v1*attention_v1 + v2*attention_v2 … 第
2021-04-10 00:36:22
833
原创 CS244n NLP with Deep Learning | Winter 2019
CS244n NLP with Deep Learning | Winter 2019 Lecture 1word2vecLecture 2 Lecture 1 word2vec 每一个单词可以变成一个vector, 相似的word vector也相似 word = [0.230.52−0.41−0.310.270.48]\begin{bmatrix} 0.23 \\ 0.52 \\ -0.41 \\ -0.31 \\ 0.27 \\ 0.48 \end{bmatrix}⎣⎢⎢⎢⎢⎢⎢⎡0.230.5
2021-03-05 19:58:18
524
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅