Machine Learning
岛的博客
本硕985 EE,博士UTS NLP在读。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
无法解析的外部符号 cudaLaunchKernel 等的解决方案
无法解析的外部符号 cudaLaunchKernel 等的解决方案原创 2023-01-29 20:23:25 · 2163 阅读 · 0 评论 -
identifier “THCudaCheck“ is undefined 的解决方法
在 pytorch 1.11.0 版本被移除了原创 2023-01-28 20:17:46 · 2229 阅读 · 3 评论 -
loss 函数中 softmax 和 sigmoid的区别
简单来说, softmax 适用于预测 结果互斥 的情况,也就是说label是one-hot的情况。 例如MNIST数据集,每张图片的结果只能是0-9中的一个数字,采用softmax之后可以保证概率相加为1,其中label对应位置的概率为预测结果是该数字的概率。 sigmoid适应于预测 结果不互斥 的情况,也就是说label可以是[1, 1, 0, 0, 1]。 例如有一堆包含动物的图片,其中每张图片可能包含多个动物。 参考:https://zhuanlan.zhihu.com/p/33560183 .原创 2021-01-05 22:52:41 · 544 阅读 · 0 评论 -
K-NN 及其结果可视化
我做的一个关于K-NN的PPT 最后结果为:原创 2020-05-13 17:54:35 · 310 阅读 · 0 评论
分享