
大模型
文章平均质量分 84
goomind
一线科研工作者,专注机器学习、工业视觉、人工智能算法和图像处理研究,擅长Python、MATLAB、C++及Qt等技术。平时喜欢利用博客总结项目与教学经验,并交流和分享代码,长期坚持写作。独学而无友,则孤陋而寡闻,愿与优快云的朋友一同学习进步。
展开
-
ChatGLM3-6B FastApi部署调用
在autodl平台中租一个3090等24G显存的显卡机器,如下图所示镜像选择PyTorch–>1.11.0–>–>11.3接下来打开刚刚租用服务器的JupyterLab,并且打开其中的终端开始环境配置、模型下载和运行demo。pip换源和安装依赖包。原创 2024-12-23 11:06:31 · 477 阅读 · 0 评论 -
Qwen2.5-7B-Instruct Lora微调
Qwen2.5-7B-Instruct Lora微调是一种基于低秩矩阵的微调方法,通过在特定层添加额外参数来优化模型,适用于指令性文本任务。微调后的模型在问答系统、自动摘要生成和指令执行等场景中表现更佳。具体实施包括环境搭建、模型下载、Lora配置和训练参数设置。通过Lora微调,模型能够更精准地响应专业指令,拓宽应用潜力。原创 2024-12-22 10:50:57 · 1015 阅读 · 0 评论 -
Qwen2.5-7B-Instruct vLLM部署
Qwen 2.5-7B-Instruct vLLM 是一款大型语言模型,专为理解和响应指令而设计。部署此模型时,需要考虑计算资源、数据安全和模型优化等因素。摘要如下:Qwen 2.5-7B-Instruct vLLM是一款强大的语言处理工具,具备7B参数量,擅长遵循指令。部署时需确保充足的计算资源以维持其高性能,同时注重数据保护和隐私安全。此外,模型优化是关键,以实现快速响应和高准确性。此模型适用于多种应用场景,包括自然语言理解和生成。原创 2024-12-21 14:34:15 · 917 阅读 · 0 评论 -
Qwen2.5-7B-Instruct FastApi部署与调用
通用千问大模型是基于Transformer框架构建的,用于处理自然语言处理任务的人工智能模型。部署此模型时,首先需要在具有适当硬件和软件环境的服务器上安装Transformer库和依赖项。然后,将预训练好的模型文件放置在服务器上,并使用FastAPI框架创建API接口,以便客户端可以通过HTTP请求与模型进行交互。FastAPI提供了快速搭建高性能API的能力,适合用于部署机器学习模型。部署过程中,还需配置好路由、请求处理和模型推理功能,确保模型能够接收输入并返回预测结果。最后,通过适当的测试和调优,确保A原创 2024-12-20 14:33:21 · 742 阅读 · 0 评论 -
ChatGPT中文LLM与LangChain相结合的开源资源汇总
自ChatGPT为代表的大语言模型(Large Language Model, LLM)出现以后,由于其卓越的人工智能(AGI)的能力,掀起了新一轮自然语言处理领域的研究和应用的浪潮。尤其是以ChatGLM、LLaMA等平民玩家都能跑起来的较小规模的LLM开源之后,业界涌现了非常多基于LLM的二次微调或应用的案例。本文主要介绍ChatGPT中文LLM与LangChain相结合的开源应用项目,供大家学习参考!基于开源ChatGPT大模型构建自己的知识库系统。原创 2023-07-25 12:58:16 · 477 阅读 · 0 评论 -
ChatGPT中文LLM与医疗领域相结合的开源资源汇总
自ChatGPT为代表的大语言模型(Large Language Model, LLM)出现以后,由于其卓越的人工智能(AGI)的能力,掀起了新一轮自然语言处理领域的研究和应用的浪潮。尤其是以ChatGLM、LLaMA等平民玩家都能跑起来的较小规模的LLM开源之后,业界涌现了非常多基于LLM的二次微调或应用的案例。本文主要介绍GPT在医疗领域的开源应用项目,供大家学习参考!原创 2023-07-19 11:03:21 · 1751 阅读 · 0 评论 -
ChatGPT中文LLM相关的开源大模型资源汇总
自ChatGPT为代表的大语言模型(Large Language Model, LLM)出现以后,由于其惊人的类通用人工智能(AGI)的能力,掀起了新一轮自然语言处理领域的研究和应用的浪潮。尤其是以ChatGLM、LLaMA等平民玩家都能跑起来的较小规模的LLM开源之后,业界涌现了非常多基于LLM的二次微调或应用的案例。本文旨在收集和梳理中文LLM相关的开源模型、应用、数据集及教程等资料分享给大家!原创 2023-07-17 15:35:09 · 2628 阅读 · 4 评论