
深度学习基础
文章平均质量分 50
会发paper的学渣
Computer knows how to connect zero with one,Mathmatic get how to skip from one to infinity
展开
-
使用anaconda 安装paddle gpu环境
使用anaconda 安装paddle gpu环境原创 2023-03-20 15:32:50 · 3261 阅读 · 1 评论 -
国外资源国内镜像访问(亲测)
国外资源国内镜像访问huggingface、git、pip源、conda源原创 2023-03-16 11:15:09 · 26127 阅读 · 4 评论 -
已经开源的中文大模型对比,支持更新
已经开源的中文大模型对比原创 2023-08-17 13:40:59 · 1080 阅读 · 0 评论 -
基于T5的模型微调以及对应的数据介绍
基于T5模型实现多任务训练原创 2023-03-07 18:10:27 · 3740 阅读 · 3 评论 -
gradio 关于tab展示内容演示代码
gradio 关于tab展示内容演示代码原创 2023-03-03 11:12:32 · 3804 阅读 · 0 评论 -
asr 语音识别方法 基于paddle的方法
asr声音内容识别原创 2023-02-27 09:31:29 · 695 阅读 · 0 评论 -
从tf.math.log_softmax和tf.keras.losses.SparseCategoricalCrossentropy看softmax的上溢和下溢问题
softmax的上溢和下溢问题原创 2023-01-16 19:05:06 · 490 阅读 · 0 评论 -
tf.keras.losses.SparseCategoricalCrossentropy 学习总结
SparseCategoricalCrossentropy相关参数解析原创 2023-01-13 18:27:00 · 1004 阅读 · 0 评论 -
tensorflow serving 的相关知识
tensorflow serving 关于模型的部署,客户端的请求方式原创 2023-01-09 18:20:21 · 312 阅读 · 0 评论 -
pytorch GPU版本安装(亲测)
pytorch gpu版本安装原创 2022-11-14 22:28:17 · 7620 阅读 · 1 评论 -
机器学习基础-统计基础1
马尔可夫不等式 切比雪夫不等式 大数定理原创 2022-11-03 15:08:47 · 230 阅读 · 0 评论 -
cube-studio 部署过程
cube-studio 部署过程原创 2022-08-04 16:33:03 · 2589 阅读 · 2 评论 -
docker GPU基础镜像python
docker GPU基础镜像python原创 2022-08-02 11:09:29 · 523 阅读 · 0 评论 -
tfx airflow 使用体验
tfx airflow原创 2022-07-25 19:07:29 · 448 阅读 · 0 评论 -
过拟合 欠拟合
过拟合 欠拟合原创 2022-07-14 19:07:55 · 136 阅读 · 2 评论 -
深度学习核心词汇-英文
temporal dimension 时间维度spatial dimension 空间维度原创 2021-12-23 13:40:24 · 468 阅读 · 0 评论 -
tf.data.Dataset介绍1-from_tensor_slices
1、tf.data.Dataset.from_tensor_slices使用a.对输入的类型异常敏感,遇到第一个为list或tensor类型作为维度作为切割维度。小数据内存处理时使用。b.对于外层tuple或dict的跳过不作为切割维度。例如,list数据格式slice#listlist(tf.data.Dataset.from_tensor_slices([[1,3,4],[2,3,4]]).as_numpy_iterator())Out[10]: [array([1,原创 2022-04-08 17:46:11 · 2570 阅读 · 0 评论 -
模型结构图输出
import tensorflow as tffrom keras.utils.vis_utils import plot_modelinput = tf.keras.Input(shape=(100,), dtype='int32', name='input')x = tf.keras.layers.Embedding( output_dim=512, input_dim=10000, input_length=100)(input)x = tf.keras.layers.LSTM(3.原创 2022-04-08 16:10:30 · 1647 阅读 · 0 评论 -
layers.Normalization
标准化,就是执行特征标准化层,第一种方式:通过数据计算出均值和方差:adapt_data = np.array([[0., 7., 4.], [2., 9., 6.], [0., 7., 4.], [2., 9., 6.]], dtype='float32')input_data = np.array([[0., 7., 4.]], dt原创 2022-04-08 13:58:07 · 2165 阅读 · 4 评论 -
numpy函数介绍1: repeat 数据扩增
1、对单数据类型重复:np.repeat(3,2)#array([3, 3])np.repeat('abd',2)#array(['abd', 'abd'], dtype='<U3')2、对多维数据重复#未指定维度np.repeat([[1],[2],[3]],2)#array([1, 1, 2, 2, 3, 3])np.repeat([[1],[2],[3]],2)np.repeat(["abd","def"],2)#array(['abd', 'abd',原创 2022-03-25 16:26:24 · 1289 阅读 · 0 评论 -
期望、方差、均方误差、均方根误差
期望: 方差: 均方误差 mean square error:均方根误差root mean square error:原创 2022-03-21 15:09:46 · 592 阅读 · 0 评论 -
数据集下载渠道汇总
Hugging Face – The AI community building the future.Machine Learning Datasets | Papers With Code原创 2022-03-09 11:15:17 · 35921 阅读 · 0 评论 -
理解transformer
1、transformer整体流程:2、dot-product attention以及分别对应的在encoding和decoding中对应的内容:对应的公式为:1、 对于encoding部分来说,Q、K、V都是输入的序列向量矩阵,比如,输入 我爱你,则三个对应的都是对每一个字进行enbedding后的序列矩阵A;而对应就是value值对应的权重,可以称之为输入词的重要性权重2、对于decoding来说,第一步时,设置一个默认开始内容,后面内容(假设最长长度用n全部遮罩处理后最为o原创 2022-01-28 14:25:43 · 1444 阅读 · 0 评论 -
BN问题说明
Batch Normalization(BN)是深度学习中非常好用的一个算法,加入BN层的网络往往更加稳定并且BN还起到了一定的正则化的作用。在这篇文章中,我们将详细介绍BN的技术细节[1]以及其能工作的原因[2]。在提出BN的文章中[1],作者BN能工作的原因是BN解决了普通网络的内部协变量偏移(Internel Covariate Shift, ICS)的问题,所谓ICS是指网络各层的分布不一致,网络需要适应这种不一致从而增加了学习的难度。而在[2]中,作者通过实验验证了BN其实和ICS的关系并不大转载 2022-01-27 17:40:57 · 1260 阅读 · 0 评论