- 博客(7)
- 收藏
- 关注
原创 ⭐使用yolov10完成预训练模型测试!⭐
说着玩的,打开app.py,查看最后一行,查找gradio官方文档找到gradio_app.launch,一顿学习,打开。下面(还原原来的结构),然后把jiameslahm文件夹整个放入yolov10的根目录下面,打开。下次有空说说如何训练自己的数据集得出模型文件,如何部署自己的模型文件,进入yolov10目录,使用Anaconda创建环境并安装所需依赖项。进入yolov10目录,跑一个demo试试实力,注意缩进,保存退出,再次运行。直接崩溃,不学了,!回车,能够得到界面如下。注意缩进,保存退出。
2024-08-02 17:17:55
1203
原创 【GitHub 6.8k⭐项目】手把手教你使用AI自动通关宝可梦
这里使用windows的Anaconda环境测试项目,首先克隆项目,下载到主文件夹下(也就是文件夹下)。google上能搜索到,解压后名字改为。
2024-07-31 09:08:09
426
原创 使用Ollama配置本地微调的gguf模型文件
在之前的文章中,我们已经得到了经过我们微调的大语言模型,不管是在本地部署使用或者是用OpenWebUI界面部署在服务器上达到和chatGPT界面类似的效果,使用Ollama部署一定是最好的选择。以下均为在Ubuntu系统(Linux)上的测试。
2024-07-30 11:26:06
3353
2
原创 使用llama.cpp量化大语言模型
其中./your_hf_model_file为你的hf或者gguf格式的模型文件文件夹地址,llama.cpp还支持多种模型格式转换方法,可以去github项目地址自行查看,其中./mymodel/yourmodel.gguf是输出文件夹的地址和输出的gguf格式文件名称,记得一定要以.gguf结尾。在之前的教程中,我们提到了unsloth微调的办法,那时候保存的模型直接为.safetensors格式的,所以我们要先将其转换为gguf FP16格式格式。
2024-07-29 08:57:26
726
原创 深度学习常用的linux系统(Ubuntu)操作指令(持续更新~)
5.设置权限 chmod +x Anaconda3-5.3.0-Linux-x86_64.sh。1.找到自己需要的版本在网站https://repo.anaconda.com/archive/2.添加路径 export PATH=/home/anaconda3/bin:$PATH。6.运行 ./Anaconda3-5.3.0-Linux-x86_64.sh。import os // 设置环境变量,下载器就会使用镜像站。七、cuda12.1的anaconda 的pytorch。
2024-07-28 22:49:58
436
原创 使用unsloth本地微调开源大模型步骤
这里我选择huggingface上的数据集下载下来:Seikaijyu/Beautiful-Chinese,也可以自定义自己的数据集,只要是json格式的就行,可以使用以下chatGPT的插件Alpaca Dataset制作自己的数据集,将模型文件和数据集都放到unsloth根目录中,其中的fine-tuning.py为微调脚本,在我们之前设置的环境中运行,出现的lora_model文件夹就是生成的lora模型,output文件夹中为微调的大模型。从huggingface(
2024-07-28 22:00:34
3049
1
原创 在120枚外观相同的硬币中,有一枚是假币,并且已知假币与真币的重量不同,但不知道假币与真币相比较轻还是较重。可以通过一架天平来任意比较两组硬币,最坏情况下,能不能只比较5次就检测出这枚假币?
在120枚外观相同的硬币中,有一枚是假币,并且已知假币与真币的重量不同,但不知道假币与真币相比较轻还是较重。可以通过一架天平来任意比较两组硬币,最坏情况下,能不能只比较5次就检测出这枚假币?
2022-10-18 11:07:24
2011
5
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人