
大模型探索
文章平均质量分 93
程序员小台
这个作者很懒,什么都没留下…
展开
-
AI 大模型统一集成|让 AI 聊天更丝滑:SSE 实现流式对话!
在本篇我们成功实现了基于的流式对话,让 AI 的回复能够逐步呈现,极大地提升了用户的交互体验。SSE 方案简单易用,特别适用于单向推送的场景,比如 AI 回复、系统日志推送等。然而,SSE 也存在一定的局限性,比如它是单向通信的,仅支持服务器向客户端推送数据,无法处理客户端的主动交互需求。那么,如果我们希望实现更复杂的实时双向通信(比如 AI 生成过程中用户可以中断对话、发送指令调整回复内容等),WebSocket就是一个更优的选择!在下一篇文章中,我们将深入探讨WebSocket。原创 2025-03-11 20:50:01 · 1452 阅读 · 0 评论 -
AI 大模型统一集成|让 AI 聊天更丝滑:WebSocket 实现流式对话!
使用 Spring Boot 搭建 WebSocket 服务器,实现 AI 对话流式返回。🌟 在这系列文章中,我们将一起探索如何搭建一个支持大模型集成项目。,使 AI 对话更智能、更可交互。页面,测试 WebSocket 交互。新增一个"停止回答"按钮可随时停止。本章,我们将升级方案,使用。在上一章中,我们使用。,但是 SSE 只能。原创 2025-03-11 22:24:07 · 1709 阅读 · 1 评论 -
AI 大模型统一集成|从零开始打造你的专属大模型集成平台
🔍 从架构设计到代码实现,一起探讨如何应对不同技术挑战,最终打造出高效、可扩展的大模型平台,目前项目基础架构已经搭建完成。项目仓库(GitHub):https://github.com/pitt1997/ChatAI。搭建完成,已经支持认证登录功能,并创建了一个简单的 AI 问答 API Demo。🌟 在这系列文章中,我们将一起探索如何搭建一个支持大模型集成项目。项目演示地址:等待上线更新。本篇文章,我们介绍了。的背景、架构搭建。原创 2025-03-10 23:29:52 · 1382 阅读 · 0 评论 -
DeepSeek R1 14B + LM Studio 本地大模型实测
一款开源的本地 LLM 推理 GUI 工具支持 GGUF 格式大模型(Llama.cpp 后端)支持 GPU 加速,可用运行大模型可直接在本地进行离线 AI 对话,不依赖 OpenAI API✅LM Studio 是最简单的本地大模型推理工具之一✅支持 LLaMA / Qwen / Mistral / DeepSeek 等 GGUF 模型✅可以用 RTX 4060Ti / 4070 / 4090 跑 7B / 14B/ 32B 量化模型✅。原创 2025-02-16 09:19:02 · 3792 阅读 · 0 评论 -
IntelliJ IDEA 接入 AI 编程助手(Copilot、DeepSeek、GPT-4o Mini)
本文介绍了IntelliJ IDEA 接入 AI 编程助手的多种方式,包括,以及本地 AI 部署方案。开发者可根据需求、安全性、网络环境选择合适的 AI 助手。如果你有更好的 AI 代码助手推荐,欢迎在评论区交流!原创 2025-02-15 10:53:10 · 20388 阅读 · 11 评论 -
DeepSeek + Ollama 本地部署全流程
本文介绍了如何在 Windows 上安装 Ollama 并运行 DeepSeek R1,包括安装、下载模型、启动本地 AI 推理,并且提供了在中调用本地 AI 模型的方法。💡本地 AI 模型的优势✅ 保护隐私,代码不会上传到云端✅ 无需依赖外部 API,断网也能用✅ 降低成本,无需订阅付费 API如果你有任何问题,欢迎在评论区交流!🔥。原创 2025-02-14 12:48:44 · 1788 阅读 · 0 评论