LLMs大模型简介,github国内访问镜像(长期更新,个人收藏)

本文主要介绍国内开源的大模型项目,和个人维护的镜像地址,方便没有网络条件的同学可以快速获取源码 并复现项目

ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性

ChatGLM2-6B:https://gitcode.net/Harvey_JH/chatglm2-6b

基于 Langchain 与 ChatGLM 等大语言模型的本地知识库问答应用实现,一种利用 langchain 思想实现的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。

Langchain-Chatchat: https://gitcode.net/Harvey_JH/langchain-chatchat

阿里达摩院开源了Qwen(通义千问)系列工作,当前开源模型的参数规模为70亿(7B)和140亿(14B)。本次开源包括基础模型Qwen,即Qwen-7B和Qwen-14B,以及对话模型Qwen-Chat,即Qwen-7B-Chat和Qwen-14B-Chat。

Qwen:https://gitcode.net/Harvey_JH/Qwen

Baichuan 2 是百川智能推出的新一代开源大语言模型,采用 2.6 万亿 Tokens 的高质量语料训练
Baichuan 2 在多个权威的中文、英文和多语言的通用、领域 benchmark 上取得同尺寸最佳的效果
本次发布包含有 7B、13B 的 Base 和 Chat 版本,并提供了 Chat 版本的 4bits 量化。

Baichuan2:https://gitcode.net/Harvey_JH/Baichuan2

ChatLaw-法律大模型

https://gitcode.net/Harvey_JH/ChatLaw

ChatGLM 金融挑战赛

📈 一个旨在深度解析上市公司年报的对话交互智能系统。面对金融文本中的专业术语与暗含信息,我们致力于用AI实现专家级别的金融分析。
🚀 在AI领域,虽然已在文本对话取得进展,但真正的金融交互场景仍然是一个巨大挑战。多方机构联手举办此次竞赛,探索金融领域AI的边界。
📘 上市公司年报为投资者呈现了公司的经营状况、财务状况和未来规划。专业知识是解读的关键,而我们的目标是通过AI技术让这一过程变得更简单、更准确。

FinGLM:https://gitcode.net/Harvey_JH/FinGLM

ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。ChatGLM3-6B 是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性:

1.更强大的基础模型
2.更完整的功能支持
3.更全面的开源序列

ChatGLM3: https://gitcode.net/Harvey_JH/ChatGLM3

写在最后

欢迎移步我的Github仓库,https://github.com/Jun-Howie/erniebot-openai-api
本仓库使用飞桨星河社区接入ernie-4.0联网功能,如果你需要可以Fork我的仓库,还请给个Star让我知道

### 如何在 Windows 系统上本地部署大型机器学习模型 #### 准备工作 为了确保顺利部署,在开始之前需确认计算机满足最低硬件需求,尤其是对于内存和显卡的要求。由于大型语言模型通常需要强大的计算能力,建议使用配备高性能 GPU 的设备[^1]。 #### 安装 Docker Desktop 考虑到部分工具依赖于 Docker 运行环境,因此先要在 Windows 上安装 Docker Desktop。这一步骤至关重要,因为许多用于部署 LLMs 的解决方案都基于容器技术实现。完成安装后,务必开启 WSL 2 后端支持以便更好地兼容 Linux 基础镜像[^3]。 #### 部署 Ollama 框架 通过命令行界面执行如下操作来获取最新版本的 Ollama 并初始化设置: ```bash docker pull ollama/ollama:latest docker run --name=ollama -p 8000:8000 -d ollama/ollama:latest ``` 上述指令会拉取官方发布的最新版 Ollama 映像文件,并将其作为后台服务启动,同时映射主机端口至容器内部的服务接口[^2]。 #### 设置 Open WebUI 和 DeepSeek-R1 模型 针对希望进一步优化用户体验的情况,可以考虑集成图形化的前端应用——Open WebUI 来辅助管理与监控模型性能。具体做法涉及克隆 GitHub 仓库中的项目源码到本地磁盘位置,随后按照文档指示编译打包成可执行程序包。 接着是从指定渠道下载预训练完毕的 DeepSeek-R1 模型权重参数集,解压放置于合适路径下供后续加载调用。注意遵循各组件间的协作逻辑关系合理安排目录结构布局。 #### 测试验证 最后一步是对整个流程做全面测试,包括但不限于检查各个模块间通信是否顺畅无阻塞现象发生;尝试提交简单查询请求给服务器端处理并观察返回结果的质量与时延表现等指标情况。如果一切正常,则表明已经成功实现了预期目标即完成了大模型个人电脑上的私有化部署任务。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Jun-Howie

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值