深度学习-
请问阿萨德在现场
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
onehot/word embedding/N-Gram
onehot 缺点:1.向量的维度会随着句子的词的数量类型增大而增大;2.任意两个词之间都是孤立的,根本无法表示出在语义层面上词语词之间的相关信息。分布假说:上下文相似的词,其语义也相似。词的语义由其上下文决定。word embedding 是NLP中一组语言模型和特征学习技术的总称,把词汇表中的单词或者短语映射成由实数构成的向量上(映射)。N-Gram 是基于一个假设:第n个词出现与前n-1个词相关,而与其他任何词语不相关(隐马尔可夫中的假设)。指给定的一段文本或语音中N个项目(item)的序列。原创 2020-08-11 11:19:06 · 321 阅读 · 0 评论 -
多版本cuda共存
mkdir -p /home/you_name/.conda/mmdet/etc/conda/activate.dvim /home/you_name/.conda/mmdet/etc/conda/activate.d/activate.shchmod +777 /home/you_name/.conda/mmdet/etc/conda/activate.d/activate.shORIGINAL_CUDA_HOME=CUDAHOMEORIGINALLDLIBRARYPATH=CUDA_HOMEOR原创 2020-07-30 17:50:55 · 377 阅读 · 0 评论
分享