DeepSeek本地部署及其他应用接入

本文综合了网上的文章及本地自行实践踩坑的记录

1.Ollama安装

实测需要有CUDA11及以上版本支持,不然会报错。因此先把显卡驱动安装好。

由于下载Ollama不方便,我把下载好的Windows版本、Linux版本和Linux版本安装脚本修改版本install.sh一起放网盘分享:https://pan.baidu.com/s/1kkr95WOd3fX1sJhAwmPBdQ?pwd=1314

1.1 Windows上部署Ollama

step1:下载Ollama

下载(https://ollama.com/download)并双击运行 Ollama 应用程序。

step2:修改模型下载位置

默认模型下载在C盘,不想占用系统盘的需要修改

关掉ollama之后,设置环境变量

右键我的电脑-属性-高级系统设置,点击“高级系统设置”

在打开的系统属性界面中点击高级-环境变量

在环境变量界面中点击系统变量中的新建按钮

在跳出来的新建系统变量界面中,变量名设置为:OLLAMA_MODELS,变量值设置为E:\OllamaLLM\models(根据自己想放置的位置),然后点击确定对设置的环境变量进行保存。

image-20250203153043489

step3:验证安装

在命令行输入 ollama,如果出现以下信息,说明 Ollama 已经成功安装。

image-20250203153707027

1.2 Linux上使用

如果要在Linux上安装Ollama,可以按照如下方式,我以Ubuntu20.04为例

官网给出的是安装命令,这个命令会从github自动下载安装,但基本由于网络原因失败。

curl -fsSL https://ollama.com/install.sh | sh

直接访问 ollama github下载最新的版本,目前是0.5.7

先在Linux上确定自己的CPU架构:

lscpu
image-20250205075000039

下载对应的包:

image-20250205075114422

网上说明是直接解压缩后进行一番设置,这里官方的安装脚本已经写得很好,我们只需要修改原始的安装脚本就可以实现自动安装离线包。

从任意位置下载源码中的离线安装脚本,我这里针对的是最新的0.5.7版本:

  • Ollama官网

  • github

  • gittee加速

    原始脚本的第69行到88行如下:

    for BINDIR in /usr/local/bin /usr/bin /bin; do
        echo $PATH | grep -q $BINDIR && break || continue
    done
    OLLAMA_INSTALL_DIR=$(dirname ${BINDIR})
    
    if [ -d "$OLLAMA_INSTALL_DIR/lib/ollama" ] ; then
        status "Cleaning up old version at $OLLAMA_INSTALL_DIR/lib/ollama"
        $SUDO rm -rf "$OLLAMA_INSTALL_DIR/lib/ollama"
    fi
    status "Installing ollama to $OLLAMA_INSTALL_DIR"
    $SUDO install -o0 -g0 -m755 -d $BINDIR
    $SUDO install -o0 -g0 -m755 -d "$OLLAMA_INSTALL_DIR"
    status "Downloading Linux ${ARCH} bundle"
    curl --fail --show-error --location --progress-bar \
        "https://ollama.com/download/ollama-linux-${ARCH}.tgz${VER_PARAM}" | \
        $SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"
    if [ "$OLLAMA_INSTALL_DIR/bin/ollama" != "$BINDIR/ollama" ] ; then
        status "Making ollama accessible in the PATH in $BINDIR"
        $SUDO ln -sf "$OLLAMA_INSTALL_DIR/ollama" "$BINDIR/ollama"
    fi
    

    这里我对其中进行注释,并对需要修改的地方进行了说明:

    # 如果存在旧版本的 ollama,清理旧版本
    if [ -d "$OLLAMA_INSTALL_DIR/lib/ollama" ] ; then
        status "Cleaning up old version at $OLLAMA_INSTALL_DIR/lib/ollama"
        $SUDO rm -rf "$OLLAMA_INSTALL_DIR/lib/ollama"
    fi
    # 创建安装目录
    status "Installing ollama to $OLLAMA_INSTALL_DIR"
    $SUDO install -o0 -g0 -m755 -d $BINDIR
    $SUDO install -o0 -g0 -m755 -d "$OLLAMA_INSTALL_DIR"
    
内容概要:本教程详细介绍了如何使用DeepSeek智能助手的服务,涵盖了三个主要方面:一是网页端的基本操作如访问官网、注册账号以及输入问题获取答案的方法;二是针对开发者提供了从创建到使用的完整API流程说明(包括安装必要的Python SDK,发起对话请求和处理系统回应);三是为移动端用户提供两种方式接入,一种是通过专门的应用程序直接使用(若有提供),另一种则依靠配置第三方聊天工具实现与深度搜寻系统的交互。这三个部分共同确保无论是在浏览器环境还是编程应用场景或是个人手持设备环境中,都可以轻松掌握如何快速启动并高效利用这项先进的AI驱动技术服务。 适用人群:适合希望学习并运用AI辅助工作或生活的普通用户及具有一定编程经验希望通过API接口集成或扩展应用程序功能的技术开发者。 使用场景及目标:用户可以依照指引顺利完成从在线体验到深度整合的一系列操作。对于非技术人员而言,能够立即享受AI所带来的便捷服务,提高日常工作效率和个人生活品质;而对于开发者来说,则可以通过定制化的API调用来构建基于文本的理解能力、自动化响应机制等更为复杂的功能模块。 其他说明:文中提供了丰富的具体步骤说明和示例代码片段,使得即使是初学者也可以跟随教程顺利完成各项任务,并进一步加深对AI服务平台的认知。
内容概要:本文档详细介绍了 DEEP SEEK 的本地部署及其与私有知识库整合的具体步骤。主要包括两大部分:Ollama 平台的使用方法和 DeepSeek R1 模型的安装指导。Ollama 是一种能够便捷部署深度学习模型(尤其是大型语言模型)的工具,它支持多种操作系统并在命令行中执行相应操作以完成从下载、配置直至实际使用的全过程。文中针对不同硬件条件给出了具体配置推荐,并逐步讲解了从安装 Ollama 到运行特定大小版本 DeepSeek 模型(如 1.5b 至 70b),再到设置 API 键连接云端服务以及最后利用 Cherry Studio 构建个人专属的知识库的一系列操作指南。同时附上了多个辅助资源如视频教程、在线演示平台链接以便更好地理解和学习整个过程。 适合人群:适合有一定技术背景且想探索本地部署人工智能模型的初学者或是希望通过本地部署提高效率的研发团队。 使用场景及目标:一是帮助用户了解并掌握在本地环境中配置高性能 AI 工具的全流程操作;二是使用户能够根据自己拥有的计算资源情况合理挑选合适的模型大小;三是通过集成私有知识库为企业内部提供定制化的问答或咨询系统,保护敏感数据不受公开访问威胁。 其他说明:考虑到安全性和稳定性因素,作者还提供了应对潜在风险如遭遇网络攻击时选用可靠替代源——硅基流动性 API 来保障服务持续稳定运作,并强调在整个实施过程中应谨慎处理个人信息及企业关键资产以防泄露事件发生。此外,提到对于更高级的功能例如基于 Ollama 实现本地知识库还有待进一步探讨和发展。
### DeepSeek 本地部署教程 为了在本地环境中成功部署 DeepSeek,需遵循一系列具体操作流程。下载 Ollama 是启动过程中的第一步[^1]。 #### 获取 API Key 前往官方网站 DeepSeek | 深度求索 的 API 开放平台页面来获取个人专属的 API key。此密钥对于后续接口调用至关重要,务必妥善保管[^2]。 ```java String apiKey = "your_api_key_here"; ``` ### Java 接入方法 实现 Java 应用程序对接 DeepSeek 主要依赖于 HTTP 请求发送机制。下面是一个简单的例子展示如何利用 Apache HttpClient 发起请求并处理响应数据: ```java import org.apache.http.HttpResponse; import org.apache.http.client.methods.HttpPost; import org.apache.http.entity.StringEntity; import org.apache.http.impl.client.CloseableHttpClient; import org.apache.http.impl.client.HttpClients; import org.apache.http.util.EntityUtils; public class DeepSeekClient { private static final String ENDPOINT_URL = "https://api.deepseek.com/v1/endpoint"; // 替换成实际端点地址 public static void main(String[] args) throws Exception { try (CloseableHttpClient httpClient = HttpClients.createDefault()) { HttpPost request = new HttpPost(ENDPOINT_URL); // 设置头部信息 request.setHeader("Authorization", "Bearer " + apiKey); request.setHeader("Content-Type", "application/json"); // 构建请求体 String jsonInputString = "{\"prompt\":\"你好,世界\",\"max_tokens\":50}"; StringEntity entity = new StringEntity(jsonInputString,"UTF-8"); request.setEntity(entity); HttpResponse response = httpClient.execute(request); System.out.println(EntityUtils.toString(response.getEntity())); } } } ``` 这段代码展示了怎样创建一个 POST 请求到指定 URL,并附带必要的认证令牌和 JSON 格式的输入参数。执行该程序将会返回来自服务器的结果字符串。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值