自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(35)
  • 收藏
  • 关注

原创 docker网站配置

"gc": {},

2025-11-04 08:24:55 203

原创 Docker Engine

"gc": {},

2025-08-31 09:06:20 290

原创 【无标题】

【代码】【无标题】

2025-05-07 15:34:23 148

原创 WSL 的 Ubuntu 子系统中启用图形化界面

在 Windows 系统上,需要安装一个 X 服务器来处理 WSL 中 Ubuntu 的图形显示。如果一切配置正确,会弹出一个时钟窗口,这表明 WSL 的 Ubuntu 图形化界面已经成功启用。包为例,它包含了一些简单的图形化测试程序。安装完成后,可以运行一个简单的图形化程序来测试是否能正常显示图形界面。环境变量,让 Ubuntu 知道将图形输出发送到哪里。为了让每次启动 Ubuntu 时都自动设置该环境变量,可以将上述命令添加到。打开 WSL 的 Ubuntu 终端,设置。例如,使用以下命令将其添加到。

2025-05-07 09:49:37 1791

原创 windows通过wsl安装ubuntu20.04

wsl --install -d D:\ # 这将尝试安装默认的Linux发行版到D盘,但通常需要指定发行版名称。wsl --set-default-version 2 # 将WSL版本设置为2(可选,但不是必须的)wsl --install -d Ubuntu -r D:\ # 这将尝试安装Ubuntu到D盘。

2025-05-06 19:26:18 581

原创 ubuntu创建虚拟环境安装ultralytics

bashbash。

2025-05-04 08:08:29 691

原创 ragflow安装

配置完成后,在windows PowerShell命令窗口中进入ragflow文件夹,输入docker compose -f docker/docker-compose.yml up -d命令,利用docker加载该项目。图 windows PowerShell界面。,进入ragflow登录界面,如下图所示。在浏览器地址栏中输入。

2025-03-21 10:36:27 511

原创 ultralytics-main

将yolov8n.pt转化为yolov8n.onnx。

2024-11-21 15:46:46 229

原创 【无标题】

wsl_update_x64ubuntu18.04wsl --updatewsl --shutdownsudo apt update && sudo apt upgrade -ysudo apt install ubuntu-desktop

2024-08-14 21:14:55 159

原创 maxkb docker

http://host.docker.internal:11434

2024-08-12 16:10:35 229

原创 jupyter notebook

cmd pip install jupyter -i https://pypi.tuna.tsinghua.edu.cn/simple

2024-07-31 10:02:50 208

原创 python调用ollama

print(ollama("中文回答什么是人工智能"))利用langchain调用;

2024-07-31 10:02:29 831

原创 llama-factory微调大模型

python3.10webui.py。

2024-07-25 17:38:27 170

原创 大模型平台

主要包括:Ollama,LM Studio,Ray Serve,GPT4ALL,vLLM,HuggingFace TGI,OpenLLM,LMDeploy, FastChat, LangChain。其中最方便的人人都可以部署的三种傻瓜方式包括Ollama,GPT4ALL和LM Studio,都支持window,MAC和linux操作系统,搜索官网直接下载安装应用即可。主要包括:llama.cpp,koboldcpp,PowerInfer,chatglm.cpp,qwen.cpp。目前主要是C或C++语言。

2024-07-13 20:02:53 695 1

原创 安装hyper-V

pushd "%~dp0"dir /b %SystemRoot%\servicing\Packages\*Hyper-V*.mum >hyper-v.txtfor /f %%i in ('findstr /i . hyper-v.txt 2^>nul') do dism /online /norestart /add-package:"%SystemRoot%\servicing\Packages\%%i"del hyper-v.txtDism /online /enable-feature /fe

2024-07-13 08:51:26 210

原创 docker安装open-webui

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

2024-07-12 16:21:43 1038

原创 windows安装docker

https://downloads.digitaltrends.com/docker-desktop/windowshttps://wslstorestorage.blob.core.windows.net/wslblob/wsl_update_x64.msi

2024-07-12 15:20:05 468

原创 docker 安装maxkb

docker安装maxkb命令。

2024-07-11 16:40:45 728

原创 利用ollama实现本地大模型RAG智能回答

配置HuggingFaceEmbeddings嵌入模型,这里我们用BAAI/bge-small-zh-v1.5。response = query_engine.query("今天星期几")# 配置ollama的LLM模型,这里我们用gemma:7b。# 将data文件夹下的文档建立索引。# 创建问答引擎,并提一个简单的问题。

2024-07-05 17:47:05 821

原创 【无标题】

访问Ollama官网(ollama.com)ollama run gemma。2、输入:ollma pull gemma。

2024-07-05 16:23:00 1670

原创 gemma-2b大模型微调

bnb_4bit_quant_type="nf4", # 指定用于量化的数据类型。bnb_4bit_compute_dtype=torch.bfloat16 # 用于线性层计算的数据类型。output_dir="./outputs/gemma-new", # 微调后模型的输出路径。task_type="CAUSAL_LM", # 因果语言模型。model_id = "gemma-2b" # 模型的本地路径。load_in_4bit=True, # 启用4位加载。r=8, # LoRA中的秩。

2024-07-05 15:38:46 519

原创 python txt转excel转csv,增加标题栏

header = ['w1', 'w2'] # 根据实际列数和列名修改。# 读取txt文件,以空格作为分隔符。# 将数据写入Excel文件。# 将数据保存为CSV文件。

2024-07-05 09:49:03 246

原创 python txt转excel转csv文件

读取txt文件,以空格作为分隔符。# 将数据写入Excel文件。# 将数据保存为CSV文件。

2024-07-05 09:46:02 165

原创 whl网址

https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple/Simple Index https://download.pytorch.org/whl

2024-04-26 19:49:33 686

原创 python 分类文件存档

print('音频:%s 的预测结果标签为:%d' % (path, label))assert len(wav_output) >= 8000, "有效音频小于0.5s"# 要预测的音频文件。

2024-04-25 18:41:28 454

原创 python魔搭

print('生成结果' + result[OutputKeys.TEXT])print('输入文本:' + input + '\n')input = '以关键词“xx”写一副春联'

2024-04-23 19:35:45 251

原创 【无标题python bit】

response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)response, history = model.chat(tokenizer, "你好", history=[])

2024-04-23 18:47:54 166

原创 torch与torchaudio关系

torch1.13.1就对应0.13.1。

2024-04-19 20:05:53 419

原创 python文件改名

file_extension = 'wav' # 声音文件的扩展名,例如:'wav', 'mp3'等。# 为文件分配编号并复制到新的文件夹。# 获取文件夹内的所有声音文件。

2024-04-19 15:20:20 361

原创 pytorch与torchvison版本对应关系

https://download.pytorch.org/whl/

2024-04-19 09:26:07 120

原创 python charm

model_path = "E:\p2\chatglm3-6b\ZhipuAI" #替换为您下载的ChatGLM3-6B 模型目录。#prompt = CHATGLM_V3_PROMPT_FORMAT.format(prompt="您是谁?# 载入ChatGLM3-6B模型并实现INT4量化。text=input("请输入:")# 请指定chatglm3-6b的本地路径。# 制作ChatGLM3格式提示词。# 执行推理计算,生成Tokens。# 对生成Tokens解码并显示。# 载入tokenizer。

2024-04-18 22:00:59 356

原创 python socket客户端

接收服务器返回的数据。# 关闭socket连接。# 创建一个socket对象。# 发送数据到服务器。

2024-04-16 18:32:22 569

原创 python socket服务端

result = client.read_holding_registers(0, 2, unit=1) # unit参数指定从站地址,如果只有一个从站可以省略此参数。client.write_register(0, 1234, unit=1) # unit参数指定从站地址,如果只有一个从站可以省略此参数。client = ModbusTcpClient('127.0.0.1', port=502) # 连接到本地地址,端口默认为502。# 读取保持寄存器的值,例如从地址0开始读取2个寄存器。

2024-04-16 18:31:50 482

原创 python串口通信

ser = serial.Serial('COM3', 9600, timeout=1) # 选择串口号(如COM3),波特率(如9600),超时时间(如1秒)ser.write(b'Hello, World!') # 发送字节串。data = ser.readline() # 读取一行数据。

2024-04-16 17:39:02 650

原创 python去重

'':

2024-04-16 11:36:39 311

yolov11图像分类模型,可以实现图像分类

yolov11图像分类模型,可以实现图像分类

2024-11-27

minimind最小开源大模型,可以自己训练自己的大模型

minimind最小开源大模型,可以自己训练自己的大模型

2024-11-27

AI图片截图,可以实现大模型问答、图像分类、数据预测

AI图片截图,可以实现大模型问答、图像分类、数据预测

2024-11-08

ollama运行截图,maxkb运行截图

ollama运行截图,maxkb运行截图

2024-11-08

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除