QDir的使用

关于QDir
通常我们使用QFileDialog来选择一个文件路径;
但是当我们需要打开指定文件时(如:选择一个文件路径,获取到文件中的内容)时,则需要使用QDir
例:
QDir dir(path); //打开文件
QStringList fileNameList;
fileNameList.append("*.mp3"); //过滤器,用来选择文件类型
QStringList fileLists=dir.entryList(fileNameList,QDir::Files|QDir::Readable,QDir::Name);

注:
entryList()函数的参数分别代表:文件名称过滤器,文件属性过滤器,排序方式
也可以通过setNameFilters()、setFilter()、setSorting()这个三个函数来覆盖设置。

如果需要使用QDir来保存文件
QString saveFileName=“xxxxx”;
QDir dir(path);
//判断此路径下是否有saveFileName文件夹
if(!dir.exists(saveFileName))
{
//没有则创建此文件夹
dir.mkdir(saveFileName);
}
//切换目录到该文件夹
dir.cd(saveFileName);
//设置当前目录为该文件夹
dir.setCurrent(saveFileName);

如果需要给QFileDialog设置指定打开路径中的某个文件
QDir* dir = new QDir(path);
if(!dir->exists(“FileName”))
{
dir->mkdir(“FileName”);
}
dir->setCurrent(“FileName”);
//再使用QFileDialog打开该文件
QFileDialog *fileDlg = new QFileDialog(this);
fileDlg->setDirectory(dir);

### 本地部署 QwQ-32B 的实现方案 为了成功在本地环境中部署 QwQ-32B 模型,需遵循以下技术细节和配置说明: #### 1. 环境准备 确保目标机器满足硬件需求并安装必要的软件依赖项。QwQ-32B 是一种大型语言模型,通常需要高性能 GPU 或 TPU 支持以加速计算过程[^1]。 - **操作系统**: 推荐使用 Linux 发行版(如 Ubuntu),因为其对深度学习框架的支持更为成熟。 - **CUDA 和 cuDNN**: 安装 NVIDIA 驱动程序兼容版本的 CUDA Toolkit 及 cuDNN 库,以便充分利用 GPU 加速功能。 ```bash sudo apt-get update && sudo apt-get install nvidia-cuda-toolkit ``` #### 2. 软件栈搭建 构建适合运行大模型的基础环境,主要涉及 Python 解释器及其扩展库的选择。 - **Python 版本**: 使用 Python 3.8 或更高版本作为开发平台的语言基础。 - **PyTorch/TensorFlow**: 这些主流深度学习框架提供了加载预训练权重文件的能力,并简化了推理流程的设计。 对于 PyTorch 用户而言,可以通过 pip 工具快速完成核心组件的获取工作: ```bash pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 ``` #### 3. 下载模型参数 访问官方资源站点下载经过优化处理后的 QwQ-32B 权重数据集。注意保护个人隐私信息不被泄露的同时也要遵守相关法律法规关于人工智能应用的规定。 假设已经获得合法授权,则可以按照如下方式保存至指定目录下: ```python import os from huggingface_hub import snapshot_download model_name = "AliCloud/QwQ-32B" save_path = "./models" if not os.path.exists(save_path): os.makedirs(save_path) snapshot_download(repo_id=model_name, local_dir=save_path) ``` #### 4. 编写服务接口代码 最后一步就是定义 RESTful API 或命令行工具来暴露预测能力给外部调用者。这里给出基于 FastAPI 构建简单 HTTP 服务器的例子: ```python from fastapi import FastAPI from transformers import AutoTokenizer, AutoModelForCausalLM import torch app = FastAPI() tokenizer = AutoTokenizer.from_pretrained("./models") model = AutoModelForCausalLM.from_pretrained("./models").to('cuda') @app.post("/predict/") async def predict(prompt: str): inputs = tokenizer.encode(prompt, return_tensors="pt").to('cuda') outputs = model.generate(inputs, max_length=50) result = tokenizer.decode(outputs[0], skip_special_tokens=True) return {"response": result} ``` 通过上述步骤即可实现本地计算机上启动支持 QwQ-32B 大规模自然语言理解的服务实例。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值