
人工智能
人工智能大模型
坐山听雨忆轮回
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
基于llama-factory的自动化微调,导出并且计算bleu-4、rouge-1、rouge-2、rouge-l
threading、subproces、shutil等进行自动化运行并自动化安装依赖。如果有实验需要可以+v xiaorui13039811650 进行帮助。下载模型可能时间较长,需要耐心等待。具体由于实验暂未做完,暂不公开开放。环境我使用阿里云的PFAI环境。自动化安装依赖.py。原创 2024-12-18 10:59:36 · 515 阅读 · 0 评论 -
(通用方法)本地搭建一个小模型用来预测数据
我通过写的一个自动化微调自动化检测准确率作为小模型的输入数据集。不同大模型的微调参数对大模型的影响效果不一样。有的效果高,有的效果差甚至过拟合。我们在做预测大模型准确率的时候。原创 2024-12-18 10:47:41 · 185 阅读 · 0 评论 -
阿里云PAI部署自己的大模型(带视频教程)
我们利用这个额度,去做一个使用llama-factory推理、微调的机器。阿里云PAI对新用户有3个月5000核时的免费使用额度(不是托)启动机器后,git一下llama-factory仓库。在2024年12月18日,这套命令可以直接部署环境。选择modelscope1.13.1版本。直接全部粘过去运行即可。原创 2024-12-18 10:33:49 · 832 阅读 · 0 评论 -
零基础在Windows电脑用代码跑一个自己的本地大模型
从 Github 下载 ChatGLM-6B 仓库,然后进入仓库目录使用 pip 安装依赖,在微软商店中下载python(打开微软商店,搜索python下载3.10版本即可)即可自动创建一个名为hhxy的python3.10版本的python解析器。如果有conda环境即可自动创建一个conda环境。在CMD中输入python即可查看当前环境。下载Windows版本的Anaconda。即可在CMD中切换python解析器环境。1.下载ChatGLM-6b和环境准备。在pycharm中下载。原创 2024-12-18 10:23:23 · 605 阅读 · 0 评论 -
windows 安装 pytorch显示GPU不可用
如果出现这种情况,可能安装的pytorch版本是cpu版本的,无法调用GPU。备注:nvidia-smi可以查看当前GPU最高支持的CUDA版本。nvcc -V即可查看CUDA Runtime API运行的版本。选择适合自己版本的包,复制下来即可。进入到pytorch的官网。原创 2024-12-18 09:53:05 · 620 阅读 · 0 评论