DeepSeek本地部署及其他应用接入

本文综合了网上的文章及本地自行实践踩坑的记录

1.Ollama安装

实测需要有CUDA11及以上版本支持,不然会报错。因此先把显卡驱动安装好。

由于下载Ollama不方便,我把下载好的Windows版本、Linux版本和Linux版本安装脚本修改版本install.sh一起放网盘分享:https://pan.baidu.com/s/1kkr95WOd3fX1sJhAwmPBdQ?pwd=1314

1.1 Windows上部署Ollama

step1:下载Ollama

下载(https://ollama.com/download)并双击运行 Ollama 应用程序。

step2:修改模型下载位置

默认模型下载在C盘,不想占用系统盘的需要修改

关掉ollama之后,设置环境变量

右键我的电脑-属性-高级系统设置,点击“高级系统设置”

在打开的系统属性界面中点击高级-环境变量

在环境变量界面中点击系统变量中的新建按钮

在跳出来的新建系统变量界面中,变量名设置为:OLLAMA_MODELS,变量值设置为E:\OllamaLLM\models(根据自己想放置的位置),然后点击确定对设置的环境变量进行保存。

image-20250203153043489

step3:验证安装

在命令行输入 ollama,如果出现以下信息,说明 Ollama 已经成功安装。

image-20250203153707027

1.2 Linux上使用

如果要在Linux上安装Ollama,可以按照如下方式,我以Ubuntu20.04为例

官网给出的是安装命令,这个命令会从github自动下载安装,但基本由于网络原因失败。

curl -fsSL https://ollama.com/install.sh | sh

直接访问 ollama github下载最新的版本,目前是0.5.7

先在Linux上确定自己的CPU架构:

lscpu
image-20250205075000039

下载对应的包:

image-20250205075114422

网上说明是直接解压缩后进行一番设置,这里官方的安装脚本已经写得很好,我们只需要修改原始的安装脚本就可以实现自动安装离线包。

从任意位置下载源码中的离线安装脚本,我这里针对的是最新的0.5.7版本:

  • Ollama官网

  • github

  • gittee加速

    原始脚本的第69行到88行如下:

    for BINDIR in /usr/local/bin /usr/bin /bin; do
        echo $PATH | grep -q $BINDIR && break || continue
    done
    OLLAMA_INSTALL_DIR=$(dirname ${BINDIR})
    
    if [ -d "$OLLAMA_INSTALL_DIR/lib/ollama" ] ; then
        status "Cleaning up old version at $OLLAMA_INSTALL_DIR/lib/ollama"
        $SUDO rm -rf "$OLLAMA_INSTALL_DIR/lib/ollama"
    fi
    status "Installing ollama to $OLLAMA_INSTALL_DIR"
    $SUDO install -o0 -g0 -m755 -d $BINDIR
    $SUDO install -o0 -g0 -m755 -d "$OLLAMA_INSTALL_DIR"
    status "Downloading Linux ${ARCH} bundle"
    curl --fail --show-error --location --progress-bar \
        "https://ollama.com/download/ollama-linux-${ARCH}.tgz${VER_PARAM}" | \
        $SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"
    if [ "$OLLAMA_INSTALL_DIR/bin/ollama" != "$BINDIR/ollama" ] ; then
        status "Making ollama accessible in the PATH in $BINDIR"
        $SUDO ln -sf "$OLLAMA_INSTALL_DIR/ollama" "$BINDIR/ollama"
    fi
    

    这里我对其中进行注释,并对需要修改的地方进行了说明:

    # 如果存在旧版本的 ollama,清理旧版本
    if [ -d "$OLLAMA_INSTALL_DIR/lib/ollama" ] ; then
        status "Cleaning up old version at $OLLAMA_INSTALL_DIR/lib/ollama"
        $SUDO rm -rf "$OLLAMA_INSTALL_DIR/lib/ollama"
    fi
    # 创建安装目录
    status "Installing ollama to $OLLAMA_INSTALL_DIR"
    $SUDO install -o0 -g0 -m755 -d $BINDIR
    $SUDO install -o0 -g0 -m755 -d "$OLLAMA_INSTALL_DIR"
    
### DeepSeek本地部署与其他应用集成 #### 集成概述 DeepSeek作为强大的AI解决方案,在完成其本地部署之后,能够通过API接口实现与其他应用程序的无缝对接。这不仅限于简单的数据交换,还包括功能调用和服务共享等多个层面的合作[^1]。 #### API接口说明 对于希望利用DeepSeek能力的应用程序开发者而言,主要依赖RESTful风格的HTTP请求来访问DeepSeek所提供的各项服务。这些API允许外部系统发送查询并接收响应结果,从而实现在不同平台间传递结构化的信息流。具体来说: - **文本处理**:支持自然语言理解任务如分类、实体识别等操作; - **对话管理**:提供会话跟踪机制以及上下文感知的能力; - **模型训练与更新**:开放特定端点用于上传新样本集或调整现有参数设置。 ```json POST /api/v1/predict HTTP/1.1 Host: localhost:8080 Content-Type: application/json { "input": "your input text here" } ``` 上述代码展示了向已部署好的DeepSeek实例发起预测请求的一个简单例子。实际应用场景中可能还需要考虑身份验证、错误处理等因素以确保通信的安全性和稳定性。 #### 实现跨平台协作 除了直接调用API之外,还可以借助中间件工具(例如Kafka, RabbitMQ)构建消息队列架构;或者采用微服务框架(比如Spring Cloud, Dubbo),让多个独立运行的服务之间相互作用形成完整的业务流程链路。这种方式有助于提高系统的灵活性和扩展性,同时也便于后期维护和技术升级工作开展。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值