
AI智能
文章平均质量分 86
人工智能相关
Ama_tor
python金融方向
展开
-
12AI搭建preparationのCIFAR-10数据集分类(论训练的必要性)
CIFAR-10 数据集由 10 个类的 60000 张 32x32 彩色图像组成,每个类有 6000 张图像。有 50000 张训练图像和 10000 张测试图像。数据集分为 5 个训练批次和 1 个测试批次,每个批次有 10000 张图像。测试批次包含每个类中随机选择的 1000 张图像。训练批次包含按随机顺序排列的剩余图像,但某些训练批次可能包含来自一个类的图像多于另一个类的图像。在它们之间,训练批次包含来自每个类的 5000 张图像。原创 2025-04-04 01:32:26 · 324 阅读 · 0 评论 -
11AI搭建preparationのmnist手写体识别的三种方法
训练数据集:train-images-idx3-ubyte.gz (9.45 MB,包含60,000个样本)。训练数据集标签:train-labels-idx1-ubyte.gz(28.2 KB,包含60,000个标签)。测试数据集:t10k-images-idx3-ubyte.gz(1.57 MB ,包含10,000个样本)。测试数据集标签:t10k-labels-idx1-ubyte.gz(4.43 KB,包含10,000个样本的标签)。原创 2025-03-31 21:33:53 · 759 阅读 · 0 评论 -
10AI搭建preparationの使用gpt2-chinese-poem模型二创“床前明月光”
和 tokenizer_config.json包含了模型和分词器的配置信息。和 tf_model.h5分别包含了不同框架(PyTorch、Flax 和 TensorFlow)下的模型权重。包含了特殊 token 的映射。vocab.txt包含了模型的词汇表。原创 2025-03-31 16:33:05 · 721 阅读 · 0 评论 -
05.AI搭建preparationの(transformers01)BertTokenizer实现分词编码
模型每个参数占用的字节大小模型大小模型大小层数头数GPT-14 个字节的 FP32 精度浮点数117M446MB1212GPT-22 个字节的 FP161.5亿到1.75亿0.5GB到1.5GB4816GPT-32 个字节的 FP161.75万亿(17500亿)350GB17596个头针对中文语言,HuggingFace 团队推出了 bert-base-chinese 模型,提供语言处理能力。Transformers提供两大类的模型架构,一类用于。原创 2025-03-26 21:44:21 · 489 阅读 · 0 评论 -
04.2.AI搭建preparationのcuda和cuDNN的安装
cuda>>>>tools>>runtime( 如果安装了 visual studio , We chose visual studio integration )原创 2025-03-23 00:35:24 · 707 阅读 · 0 评论 -
04.1.CUDA11.7安装-C盘杀手(含卸载和安装教程)
内存条危!!我是安装在非C盘的,不知道为啥,过了1天我的C盘突然间就飚红了,心塞,所以推荐你们用自定义安装。原创 2022-09-15 15:47:59 · 25772 阅读 · 0 评论 -
03.Pytorch(pip安装示例)
(文件是2.4G的,安装中建议不要动鼠标,不然会停止下载要重新来(心酸的经历),整个下来大概需要十来分钟吧,如果下载速度是3m/s左右的话)(这一步请打开你的编译器去测试,温馨插播以下,我觉得pycharm比spyder好用)win+r>>cmd>‘复制网站提供的指令’备注:建议选择cuda11.3。原创 2022-09-13 21:33:06 · 21048 阅读 · 0 评论 -
02.anaconda如何配置
在官网下载anaconda之后会得到这一个.exe文件,下载:www.anaconda.com/download/原创 2025-03-23 17:20:36 · 552 阅读 · 0 评论 -
01.python入门之简洁安装VS保姆版安装(含虚拟环境)
优点:集成了许多关于python科学计算的第三方库,保姆级别下载:www.anaconda.com/download/版本默认64位,py37√:path设置(F:\python37),也可以默认安装路径√:暂时skip VSCODE的安装安装完后,菜单有以下IDE(代码编辑器)基础运行:编写代码后,RUN一下就OK。原创 2024-04-18 00:58:21 · 823 阅读 · 0 评论