Ollama教程推荐:从入门到进阶的详细指南

摘要

随着人工智能技术的飞速发展,大型语言模型(LLM)在各个领域的应用越来越广泛。然而,如何在本地环境中高效运行和管理这些模型,成为了许多开发者和企业面临的问题。Ollama作为一个开源的本地化模型管理工具,凭借其简洁的操作和强大的功能,成为了许多用户的首选。本文将从入门到进阶,详细讲解Ollama的安装、使用、模型管理、API调用、工具集成以及最佳实践,帮助读者快速上手并掌握Ollama的高级应用技巧。

一、概念讲解

1.1 Ollama简介

Ollama是一个开源的本地化模型管理工具,旨在帮助用户在本地环境中轻松部署、管理和使用大型语言模型(LLM)。它通过提供简洁的命令行接口和强大的API,使得用户可以在不同的设备上高效运行和管理模型。Ollama的核心优势在于其轻量级、易部署和高性能的特点,这使得它在本地化模型管理领域具有广泛的应用前景。

1.2 Ollama的工作原理

Ollama通过以下方式实现模型的管理和运行:

  1. 模型下载与存储:Ollama支持从多个模型库中下载模型,并将其存储在本地。

  2. 模型运行与管理:用户可以通过简单的命令启动、停止和管理模型。

  3. API接口:Ollama提供了一个REST API接口,方便用户通过编程方式进行模型调用。

  4. 模型优化:Ollama支持模型量化,可以显著降低显存占用,使模型更适合在普通设备上运行。

1.3 Ollama的优势

  • 轻量级:Ollama的安装和运行都非常简单,不需要复杂的配置。

  • 易部署:支持Windows、macOS和Linux系统,适应性强。

  • 高性能:通过模型量化等技术,优化模型性能,减少资源消耗。

  • 灵活性:支持多种模型格式,用户可以根据需求选择合适的模型。

二、入门教程:Ollama安装与基础使用

2.1 安装Ollama

Ollama支持Windows、macOS和Linux系统,安装过程非常简单。

2.1.1 Windows用户
  1. 访问Ollama官方网站Download Ollama on Windows,下载.exe安装包。

  2. 双击安装包,按照提示完成安装。

  3. 验证安装:打开PowerShell,输入ollama version,显示版本号即表示安装成功。

2.1.2 macOS用户

在终端中运行以下命令:

curl -fsSL https://ollama.com/install.sh | sh
2.1.3 Linux用户

在终端中运行以下命令:

curl -fsSL https://ollama.com/install.sh | sudo bash
sudo systemctl start ollama

2.2 下载并运行模型

安装完成后,你可以通过以下命令下载并运行模型:

ollama run deepseek-r1:7b  # 下载并运行 DeepSeek R1 模型

首次运行时,Ollama会自动下载模型文件。

2.3 常用命令

  • 查看已安装模型

ollama list
  • 停止运行的模型

ollama stop <模型名>
  • 删除模型

ollama rm <模型名>

三、进阶教程:模型管理与优化

3.1 模型量化

Ollama支持模型量化,可以显著降低显存占用,使模型更适合在普通设备上运行。例如,使用量化版本的DeepSeek R1模型,可以在不损失太多性能的情况下,大幅减少显存占用。

3.2 自定义模型

通过Modelfile,你可以创建自定义模型,定义模型的行为和参数。例如,创建一个幽默的助手模型:

FROM llama2
SYSTEM """你是一个幽默的助手,回答时尽量加入笑话。"""
PARAMETER temperature 0.7

然后运行以下命令构建并运行自定义模型:

ollama create my-model -f Modelfile
ollama run my-model

四、高级应用:API调用与集成

4.1 API调用

Ollama提供了REST API,方便编程调用。例如,通过curl命令调用/api/generate接口生成文本:

curl http://localhost:11434/api/generate -d '{"model": "llama2", "prompt": "为什么天空是蓝色的?"}'

4.2 与开发工具集成

Ollama可以与多种开发工具集成,例如Python、Java等。以下是一个Python示例:

import requests
url = "http://localhost:11434/api/generate"
data = {"model": "llama2", "prompt": "为什么天空是蓝色的?"}
response = requests.post(url, json=data)
print(response.json())

五、工具集成:与Chatbox和AnythingLLM搭配使用

5.1 Chatbox

Chatbox是一款支持多种AI模型的客户端应用,可以在Windows、MacOS、Android、iOS、Linux和网页版上使用。安装后,配置Ollama API地址为http://localhost:11434,即可开始使用。

5.2 AnythingLLM

AnythingLLM是一个功能强大的AI平台,支持多模型对话和知识库管理。通过配置Ollama服务地址,你可以快速搭建知识库并进行问答。

六、最佳实践:搭建本地知识库

6.1 使用DeepSeek R1

DeepSeek R1是一个高性能的中文语言模型,适合用于搭建本地知识库。通过Ollama,你可以轻松下载并运行DeepSeek R1模型,结合AnythingLLM或Chatbox,快速搭建知识库。

6.2 搭建步骤

  1. 安装Ollama并下载DeepSeek R1模型

ollama run deepseek-r1:7b
  1. 配置Chatbox或AnythingLLM

    • 打开Chatbox或AnythingLLM,配置Ollama API地址为http://localhost:11434

    • 上传知识库文档,进行语义检索和问答。

七、数据流图

以下是使用Mermaid格式绘制的Ollama服务局域网访问的数据流图:

7.1 数据流图说明

  • 用户设备:局域网中的其他设备,通过浏览器或其他客户端工具向Ollama服务发送HTTP请求。

  • 局域网:负责在设备之间转发请求和响应数据。

  • Windows防火墙:检查并允许11434端口的流量。

  • Ollama服务:接收请求并处理,然后返回响应数据。

八、应用场景

8.1 多设备共享AI模型

在团队协作环境中,多个用户可能需要共享同一个AI模型。通过开放Ollama服务的局域网访问权限,团队成员可以在各自的设备上访问和使用该模型,而无需在每台设备上单独部署。这不仅可以节省资源,还可以提高工作效率。

8.2 远程开发与调试

开发者可以在一台设备上部署Ollama服务,并通过局域网访问的方式在其他设备上进行开发和调试。这种模式特别适用于需要在不同设备上测试模型性能的场景。

8.3 教学与培训

在教学和培训环境中,教师可以在一台设备上部署Ollama服务,并通过局域网共享给学生。学生可以在各自的设备上访问和使用该服务,从而更好地理解AI模型的工作原理和应用方法。

九、注意事项

9.1 安全性

开放Ollama服务的局域网访问权限可能会带来一定的安全风险。为了确保系统的安全性,建议采取以下措施:

  • 限制访问范围:仅允许局域网内的设备访问Ollama服务,避免将服务暴露在公共网络中。

  • 使用强密码:如果Ollama服务支持身份验证,建议使用强密码保护服务。

  • 定期更新:及时更新Ollama服务和Windows系统,以修复已知的安全漏洞。

9.2 性能优化

在开放局域网访问时,可能会对Ollama服务的性能产生一定的影响。为了优化性能,可以采取以下措施:

  • 合理配置资源:根据实际需求,合理配置Ollama服务的资源(如内存、CPU等)。

  • 负载均衡:如果需要支持大量并发访问,可以考虑使用负载均衡技术。

9.3 故障排查

在配置过程中,可能会遇到一些问题。以下是一些常见的故障排查方法:

  • 检查环境变量:确保OLLAMA_HOST环境变量已正确设置为0.0.0.0

  • 检查防火墙规则:确保防火墙规则已正确添加,并且允许11434端口的流量。

  • 检查网络连接:确保局域网中的设备可以正常通信。

十、总结

本文详细介绍了Ollama的安装、使用、模型管理、API调用、工具集成以及最佳实践。通过本文的介绍,读者可以从零开始快速上手Ollama,并掌握从模型下载、运行到API调用和工具集成的进阶技巧。Ollama作为一个功能强大的本地化模型管理工具,适合开发者、研究人员以及对数据隐私有较高要求的用户。希望这些教程能帮助你在本地环境中高效运行和管理大型语言模型。

十一、引用

另外优秀的博客:

Ollama 教程推荐:从入门到进阶的详细指南_ollama入门-优快云博客文章浏览阅读1k次,点赞5次,收藏7次。Ollama 作为一个开源的本地化模型管理工具,凭借其简洁的操作和强大的功能,成为了许多用户的首选。通过本文推荐的教程,你可以从零开始快速上手 Ollama,并掌握从模型下载、运行到 API 调用和工具集成的进阶技巧。通过 Ollama,你可以轻松下载并运行 DeepSeek R1 模型,结合 AnythingLLM 或 Chatbox,快速搭建知识库。例如,使用量化版本的 DeepSeek R1 模型,可以在不损失太多性能的情况下,大幅减少显存占用。,你可以创建自定义模型,定义模型的行为和参数。_ollama入门 https://blog.youkuaiyun.com/csdn122345/article/details/145814084

Ollama教程推荐:从入门到进阶的详细指南-优快云博客文章浏览阅读570次,点赞16次,收藏29次。随着人工智能技术的飞速发展,大型语言模型(LLM)在各个领域的应用越来越广泛。然而,如何在本地环境中高效运行和管理这些模型,成为了许多开发者和企业面临的问题。Ollama作为一个开源的本地化模型管理工具,凭借其简洁的操作和强大的功能,成为了许多用户的首选。本文将从入门到进阶,详细讲解Ollama的安装、使用、模型管理、API调用、工具集成以及最佳实践,帮助读者快速上手并掌握Ollama的高级应用技巧。_ollama教程 https://blog.youkuaiyun.com/csdn122345/article/details/148379882

ollama容器里面拉取deepseek_ollama拉取deepseek-优快云博客文章浏览阅读722次,点赞9次,收藏4次。DeepSeek 的 7B 版本需要至少 8GB 内存,而 14B 版本需要至少 16GB 内存。命令拉取 DeepSeek 模型。通过以上步骤,你可以在 Docker 容器中成功拉取并运行 DeepSeek 模型。首先,拉取 Ollama 的 Docker 镜像并启动容器。:模型文件较大,下载速度可能受网络状况影响。如果下载中断,可以重新运行。此时,你可以通过命令行与模型进行交互。在容器内部,使用 Ollama 的。挂载卷,确保模型数据持久化。命令,支持断点续传。_ollama拉取deepseek https://blog.youkuaiyun.com/csdn122345/article/details/145801621

调用Ollama接口上传文件及交互教程_ollama 上传文件-优快云博客文章浏览阅读1.6k次,点赞4次,收藏2次。Ollama 提供了强大的 API 接口,支持文本生成、多轮对话和多模态输入等功能。通过简单的 HTTP 请求,开发者可以轻松地与 Ollama 模型进行交互,实现丰富的应用场景。希望本文能帮助你更好地使用 Ollama API。_ollama 上传文件 https://blog.youkuaiyun.com/csdn122345/article/details/145701484

Ollama 创建知识库的模型推荐_ollama 向量模型-优快云博客文章浏览阅读2.1k次,点赞17次,收藏16次。通过 Ollama 和推荐的模型(如 DeepSeek-R1、BGE-M3 和 Mixtral),可以高效地搭建本地知识库。随着大语言模型(LLM)的快速发展,本地知识库的构建变得越来越重要,尤其是在数据隐私和安全性要求较高的场景中。Ollama 作为一个强大的本地化模型管理工具,结合合适的模型和平台,可以高效地搭建个人或企业级知识库。BGE-M3 是由北京智源人工智能研究院开发的多语言长文本向量检索模型,适合需要多语言支持和高效检索的场景。使用 BGE-M3 模型进行文档嵌入,以实现高效的语义检索。_ollama 向量模型 https://blog.youkuaiyun.com/csdn122345/article/details/145787322

Ollama:本地部署大型语言模型的开源利器-优快云博客文章浏览阅读804次,点赞15次,收藏10次。Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。它通过简化模型的部署流程,使得非专业用户也能轻松管理和运行复杂的语言模型。Ollama 的目标是让用户能够在本地环境中快速启动和运行各种开源 LLM,而无需依赖外部服务器或云服务。Ollama 不仅支持直接使用预训练模型,还允许用户根据自己的需求对模型进行微调。用户可以通过自定义提示(Prompt Engineering)或使用自己的数据对模型进行再训练,从而优化模型的性能和准确度。_ollama https://blog.youkuaiyun.com/csdn122345/article/details/145681585

本地大模型部署与应用实践:以 Ollama 为例构建私有化 AI 应用_olllma-优快云博客文章浏览阅读558次,点赞23次,收藏24次。本文主要介绍了如何在本地部署大模型(以 Ollama 为例),并将其应用于实际开发中。通过详细的步骤说明和实践示例,帮助中国开发者快速掌握本地大模型的部署与使用方法。文章涵盖了环境配置、代码实现、架构设计、流程优化等多个方面,并提供了丰富的图表和代码示例,旨在为 AI 应用开发者提供一个实用性强、可操作的参考指南。第一章:引言 - 为什么选择本地大模型随着人工智能技术的飞速发展,大语言模型(LLM)在自然语言处理(NLP)领域展现出强大的能力。然而,依赖云端 API 的方式存在成本高、网络延迟、数据隐_olllma https://blog.youkuaiyun.com/csdn122345/article/details/149969276

Docker Compose 部署 Dify + Ollama 全栈指南:从裸奔到安全可观测的 AI 应用实战-优快云博客文章浏览阅读1.3k次,点赞40次,收藏13次。本文以中国开发者视角出发,手把手教你用 Docker Compose 在本地或轻量云主机上部署组合栈,实现“安全、可观测、可扩展”的私有化 AI 应用平台。架构图、流程图、甘特图、思维导图等 6 种图表;10+ 段可直接复制的 Python 示例代码;5 大实战场景(RAG 知识库、代码助手、企业内部问答等);常见 15 个“坑”及解决方案;从裸奔到 HTTPS + Basic Auth + IP 白名单的完整安全加固方案。读完即可在生产环境落地。维度达成情况安全性。 https://blog.youkuaiyun.com/csdn122345/article/details/149881596

Docker安装、运行、配置及卸载Ollama的详细教程_docker 运行ollama-优快云博客文章浏览阅读2.3k次,点赞22次,收藏17次。通过本文的介绍,你已经掌握了如何在 Docker 中安装、运行、配置及卸载 Ollama。Ollama 提供了强大的机器学习模型管理功能,结合 Docker 的隔离性,可以快速搭建高效、稳定的运行环境。希望本文能帮助你更好地使用 Ollama。_docker 运行ollama https://blog.youkuaiyun.com/csdn122345/article/details/145687034

DeepSeek-R1模型本地部署教程:使用Ollama_curl 请求本地 ollama deepseek r1-优快云博客文章浏览阅读664次,点赞14次,收藏9次。Ollama是一个开源项目,旨在简化大型语言模型的部署和服务。它支持多种流行的大规模预训练模型,并提供了一键安装、丰富的命令行工具以及用户友好的Web UI 界面。DeepSeek-R1是一款性能强大的开源AI模型,支持代码生成、逻辑推理等复杂任务。由于其在多个任务上的出色表现,DeepSeek-R1成为了众多开发者和研究者的首选模型之一。_curl 请求本地 ollama deepseek r1 https://blog.youkuaiyun.com/csdn122345/article/details/145582305

如何查看和管理 Ollama 中的 DeepSeek API 密钥_ollama api密钥-优快云博客文章浏览阅读3.8k次,点赞8次,收藏5次。在使用 Ollama 和 DeepSeek 时,正确管理 API 密钥是确保安全性和功能性的关键。通过以下步骤,您可以轻松获取和管理 API 密钥:在 DeepSeek 平台上注册并登录,创建新的 API 密钥。将 API 密钥存储在环境变量中,避免直接写入代码。在 Ollama 中正确配置 API 密钥,确保服务能够正常调用 DeepSeek API。希望本文能帮助您更好地管理和使用 DeepSeek API 密钥。如果在实际操作中遇到问题,欢迎在评论区留言讨论!_ollama api密钥 https://blog.youkuaiyun.com/csdn122345/article/details/146016357

使用 Docker Compose 安装和配置 Ollama_ollama docker compose-优快云博客文章浏览阅读979次,点赞4次,收藏9次。Ollama 是一款开源工具,允许用户在本地便捷地运行多种大型开源模型,如 DeepSeek、ChatGLM、Llama 等。通过 Docker Compose,我们可以快速部署 Ollama 服务,并结合其他工具(如 Dify 或 Open-WebUI)构建强大的 AI 应用。通过 Docker Compose,我们可以快速部署 Ollama 服务,并结合 Open-WebUI 提供更便捷的交互体验。:如果 Ollama 和 WebUI 部署在不同机器上,请确保网络配置正确。在你的工作目录中创建一个。_ollama docker compose https://blog.youkuaiyun.com/csdn122345/article/details/145783006

ollama本地部署如何查看deepseek的api密钥_ollama api key怎么查看-优快云博客文章浏览阅读9.4k次,点赞4次,收藏10次。在本地部署 Ollama 时,可以通过设置环境变量或在 Ollama 的配置文件中指定 API 密钥。如果你使用 FastAPI 构建了一个代理服务来保护 Ollama 的本地 LLM 服务,可以在 FastAPI 的代码中设置和管理 API 密钥。如果你使用的是支持 Ollama 的客户端工具(如 Chatbox),可以在工具的设置中直接输入 DeepSeek 的 API 密钥。通过以上方法,你可以在本地部署的 Ollama 中查看和配置 DeepSeek 的 API 密钥,确保服务的安全性和可用性。_ollama api key怎么查看 https://blog.youkuaiyun.com/csdn122345/article/details/146016584

Ollama模型频繁重载问题终极解决方案:AI开发者实战指南-优快云博客文章浏览阅读294次,点赞4次,收藏7次。在使用AnythingLLM或Dify等本地大语言模型应用时,开发者经常遇到一个令人头疼的问题:每次对话都需要重新加载模型,严重影响性能和用户体验。本文针对中国AI应用开发者,深入分析了这一问题的根本原因,并提供了从环境配置到API调用优化的全方位解决方案。通过详细的实践示例、架构图、流程图等可视化内容,帮助读者快速定位并解决模型重载问题。文章还涵盖了常见问题解答、最佳实践建议及扩展阅读资源,确保读者能够高效应用所学知识,提升AI应用的性能和用户体验。 https://blog.youkuaiyun.com/csdn122345/article/details/150000220

Ollama:轻松上手大语言模型的利器_ollama支持哪些语音识别大模型-优快云博客文章浏览阅读597次,点赞11次,收藏14次。随着人工智能技术的飞速发展,大语言模型(LLM)在自然语言处理领域扮演着越来越重要的角色。然而,部署和使用这些模型往往需要复杂的配置和高昂的硬件成本。Ollama 的出现,为这一问题提供了一个简单、高效且易于使用的解决方案。Ollama 是一个轻量级、可扩展的框架,支持多种大语言模型,能够帮助用户快速上手并运行这些模型。本文将详细介绍 Ollama 的功能特性、技术架构、安装与使用方法、应用场景以及开发过程中需要注意的事项,帮助读者更好地理解和使用这一强大的工具。用户界面模块。_ollama支持哪些语音识别大模型 https://blog.youkuaiyun.com/csdn122345/article/details/147776803

解决 Ollama 无法通过本地 IP 访问 11434 端口的问题_ollama 11434 打不开-优快云博客文章浏览阅读1.9w次,点赞9次,收藏24次。通过更改 Ollama 的绑定地址、检查防火墙配置和 Docker 网络设置,你应该能够解决无法通过本地 IP 访问 11434 端口的问题。如果问题仍然存在,可以尝试使用 Nginx 设置反向代理,将请求转发到 Ollama 服务。希望这些方法能帮助你解决问题。如果还有疑问,欢迎随时交流。_ollama 11434 打不开 https://blog.youkuaiyun.com/csdn122345/article/details/145714376

使用 VSCode + Ollama + Twinny 构建高效 AI 编程环境_vscode ollama-优快云博客文章浏览阅读790次,点赞14次,收藏24次。Ollama 是一个开源的 AI 模型管理工具,允许你在本地运行和管理各种 AI 模型,如 DeepSeek、Claude 等。它提供了简单易用的命令行接口,可以快速加载和使用模型,同时支持 GPU 加速,适合需要高性能计算的场景。通过 VSCode + Ollama + Twinny 的组合,开发者可以获得一个强大的 AI 编程环境。Twinny 提供了代码生成、复杂任务处理和文件操作的能力,而 Ollama 则确保了高性能的模型运行。这种组合不仅提升了开发效率,还降低了代码实现的复杂性。_vscode ollama https://blog.youkuaiyun.com/csdn122345/article/details/145671220

使用 VSCode 和 Ollama 构建基于 RAG 的问答系统_ollama vscode-优快云博客文章浏览阅读1.3k次,点赞11次,收藏9次。通过本文的介绍,你已经学会了如何使用 VSCode 和 Ollama 构建一个基于 RAG 的问答系统。该系统通过检索知识库中的相关内容,结合语言模型生成回答,能够有效提升问答的准确性和实用性。你可以根据需求扩展知识库内容,或结合更多功能(如流式响应、多模态支持)进一步优化系统。如果你在实现过程中遇到任何问题,欢迎在评论区留言,我会及时为你解答。_ollama vscode https://blog.youkuaiyun.com/csdn122345/article/details/145667302

Ollama 模型下载失败:解决 “no space left on device” 错误_ollama下载模型失败-优快云博客文章浏览阅读1.4k次,点赞9次,收藏10次。Ollama 是一个轻量级的 AI 模型管理工具,用于运行和管理大型语言模型。它通过本地化的方式运行模型,支持多种模型架构,并且可以与现有的开发工具无缝集成。然而,由于 Ollama 需要将模型文件存储在本地磁盘上,因此磁盘空间不足会直接影响其功能。是使用 Ollama 时常见的问题之一,但通过清理磁盘空间、扩展存储、调整配置等方法,可以有效解决这一问题。希望本文的介绍能帮助你在使用 Ollama 时避免因磁盘空间不足而导致的困扰。如果你在实际操作中遇到其他问题,欢迎在评论区留言,我们一起探讨解决方案!_ollama下载模型失败 https://blog.youkuaiyun.com/csdn122345/article/details/146111237

解决 Ollama 和 Dify 集成时的“Connection Refused”错误_dify无法连接ollama-优快云博客文章浏览阅读9.1k次,点赞6次,收藏23次。通过以上步骤,可以解决 Dify 和 Ollama 集成时的“Connection Refused”错误。如果 Ollama 和 Dify 需要通信,确保它们在同一 Docker 网络中。,并且 Dify 和 Ollama 的网络配置正确。如果 Ollama 和 Dify 未在同一 Docker 网络中,会导致连接失败。如果仍有问题,建议参考 Ollama 和 Dify 的官方文档或社区支持。如果 Dify 和 Ollama 都运行在 Docker 容器中,使用。指的是容器内部,而不是宿主机。_dify无法连接ollama https://blog.youkuaiyun.com/csdn122345/article/details/145786851

调用Ollama接口上传Excel文件及交互教程_ollama excel-优快云博客文章浏览阅读2.7k次,点赞49次,收藏20次。Ollama 提供了强大的 API 接口,支持文本生成、多轮对话和多模态输入(如图片和文件)等功能。通过简单的 HTTP 请求或命令行调用,开发者可以轻松地与 Ollama 模型进行交互,实现丰富的应用场景。希望本文能帮助你更好地使用 Ollama API。_ollama excel https://blog.youkuaiyun.com/csdn122345/article/details/145701551

Windows中Ollama开放局域网其他电脑访问_ollama局域网访问-优快云博客文章浏览阅读7.5k次,点赞22次,收藏29次。通过上述步骤,你可以轻松地在Windows上配置Ollama服务,使其能够被局域网中的其他设备访问。具体操作包括:设置环境变量为0.0.0.0。在Windows防火墙中开放端口11434。完成这些设置后,你就可以在局域网内共享Ollama服务,实现更广泛的应用场景。_ollama局域网访问 https://blog.youkuaiyun.com/csdn122345/article/details/145667585

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CarlowZJ

我的文章对你有用的话,可以支持

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值