- 博客(6)
- 收藏
- 关注
原创 CS234 RL Winter
文章目录IntroMarkov (Decision / reward) processlecture 1Introrrr Reward function, can be a function of $r(s) $or r(s,a)r(s,a)r(s,a)sss, stateaaa, actionhhh: historyγ\gammaγ: discount factormathematically convenient. γ=0\gamma = 0γ=0: only care abou
2021-07-17 10:01:51
270
原创 cs120
CSE 120前言Lecture 3Reading [chapter 6](https://pages.cs.wisc.edu/~remzi/OSTEP/cpu-mechanisms.pdf)Two modes: User mode and kernel modetrap tabletwo phases in the limited direct execution (LDE) protocol.切换进程concurrencyLecture 3Handling FaulsSystem callsLectur
2021-06-21 06:39:00
353
原创 cse123 computer networks
文章目录Lecture 5Lecture 5stop and wait- 一个一个发收到之后/time out发下一个sender要加上sequence numberreceiver的ack也要加上sequencepropagation dellay是吧package发过去再收回来。最快是光速Go back N:receiver只ack最高的连续的收到的package如果中间的丢失,那么sender要重发后面的sliding windowwindow length = bandwid
2021-04-28 15:44:27
330
1
原创 Bert源码解读
谈一谈自己的理解。Transformer讲的最好的一篇(我认为) 用pytorch一步步实现他的multihead应该是错的,不应该吧embediing分开,而应该有多个Q,K,V错误解决方案请看这篇,或者中文版,并且讲述了bert,吧所有head的output拼在一起,并训练WoW_oWo使其回归到原来的大小attention的输出是每一个词的embedding,somehow有其他词的attention。每个词是v1*attention_v1 + v2*attention_v2 …第
2021-04-10 00:36:22
770
原创 CS244n NLP with Deep Learning | Winter 2019
CS244n NLP with Deep Learning | Winter 2019 Lecture 1word2vecLecture 2Lecture 1word2vec每一个单词可以变成一个vector, 相似的word vector也相似word = [0.230.52−0.41−0.310.270.48]\begin{bmatrix} 0.23 \\ 0.52 \\ -0.41 \\ -0.31 \\ 0.27 \\ 0.48 \end{bmatrix}⎣⎢⎢⎢⎢⎢⎢⎡0.230.5
2021-03-05 19:58:18
433
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人