如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

它是免费的——社区驱动的人工智能💪。

        当 OpenAI 第一次推出定制 GPT 时,我就明白会有越来越多的人为人工智能做出贡献,并且迟早它会完全由社区驱动。

        但从来没有想过它会如此接近😂让我们看看如何在 Windows 机器上完全免费使用第一个开源推理模型! 

步骤 0:安装 Docker 桌面

        我确信很多人已经安装了它,所以可以跳过,但如果没有 — — 这很简单,只需访问Docker 的官方网站,下载并运行安装 👍

        如果您需要一些特定的设置,例如使用 WSL,那么有很多指导视频,请查看!我将继续下一步。

步骤 1:安装 CUDA 以获得 GPU 支持

        如果您想使用 Nvidia 显卡运行 LLM,则必须安装 CUDA 驱动程序。(嗯……是的,它们需要大量的计算能力)

        打开CUDA 下载页面,根据需要点击“Windows”和其他选项,然后选择“本地”作为安装程序类型:

下载并完成安装即可👍,此处需要重新启动。 

第 2 步:安装 Ollama 并下载模型

前往Ollama 网站并点击下载按钮 😆

        Ollama是一款开源 AI 工具,使用户能够在其设备上本地运行大型语言模型,为自然语言处理任务提供定制化、高效和离线功能。

安装后,打开“Windows PowerShell”

并通过运行来验证您的安装ollama -v

再次打开ollama网站并选择您的型号:

        有几种选择,我建议从 7b 开始,并检查它如何与您的机器配合使用。例如,我运行 i7-11 系列处理器和 NVIDIA GeForce RTX 2080 SUPER 以及 8GB GPU,我可以在正常(可以说是“可接受的”)速度下使用 14b 型号。

正如我所说,它需要大量的计算能力 

选择后,点击复制按钮: 

并在 PowerShell 中运行:

它将像上面一样下载并打开 shell,您可以在这里直接与它聊天,但是让我们/bye对它说,并继续设置一个实际的 UI,而不是从 PowerShell 提示 💪

步骤3:安装Open-WebUI

打开github 页面,找到“ Open WebUI with Nvidia GPU support”

复制该命令并再次在 PowerShell 中运行它。它将下载所有需要的 docker 镜像并运行容器,您可以通过http://localhost:3000/访问该容器

对于任何 LLM 用户来说,这都是一个熟悉的用户界面,左侧边栏用于聊天,左上角可用于选择已安装的模型等。

Open-WebUI 具有大量功能,例如 RAG、图像生成、网页浏览等。您可以在此处查看完整列表 

社区驱动的人工智能← 获取有关人工智能的更多内容 👍

所有信息和观点均仅代表我个人的见解。

如果您喜欢此文章,请收藏、点赞、评论,谢谢,祝您快乐每一天。  

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

csdn_aspnet

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值