
大模型
文章平均质量分 95
桑榆肖物
一个写诗的程序猿。微软MVP,全栈研发,热爱研究各种前沿技术, AI / AR / VR / ROS ;主要使用 .Net,Vue,PHP,Go,Python 等
展开
-
使用 gguf-split 进行 GGUF 模型的合并与分割
本文以 Qwen2.5 为例,介绍如何使用 gguf-split 工具进行 GGUF 模型的分片和合并,以便更高效地管理和使用大型模型。原创 2024-09-24 12:08:09 · 10521 阅读 · 3 评论 -
探索 LLamaWorker 本地大模型API服务的新功能:函数调用
LLamaWorker 是一个基于 LLamaSharp 项目开发的可以在本地运行大模型服务,并提供与 OpenAI / Azure OpenAI 兼容的 API。除了兼容性,LLamaWorker 还提供了一些其他功能,例如多模型支持、流式响应、嵌入支持、对话模版等。同时,对于支持函数调用的模型,通过工具提示词的配置,就可以使用函数调用 Function Call 能力。原创 2024-07-27 00:11:41 · 376 阅读 · 0 评论 -
ChatUI:使用Gradio.NET为LLamaWorker快速创建大模型演示界面
Gradio.NET 是 Gradio 的.NET 移植版本。它是一个能够助力迅速搭建机器学习模型演示界面的库,其提供了简洁的 API,仅需寥寥数行代码就能创建出一个具备交互性的界面。在本篇文章中,我们将会阐述如何借助 Gradio.NET 为 LLamaWorker 快捷地创建一个大型模型演示界面。原创 2024-06-26 20:12:29 · 1449 阅读 · 0 评论 -
探索 LLamaWorker:基于LLamaSharp的.NET本地大模型服务
LLamaWorker 是一个基于 LLamaSharp 项目开发的 HTTP API 服务器。它提供与 OpenAI 兼容的 API,使得开发者可以轻松地将大型语言模型(LLM)集成到自己的应用程序中。原创 2024-06-26 20:11:02 · 1498 阅读 · 0 评论 -
Semantic Kernel 直接调用本地大模型与阿里云灵积 DashScope
Semantic Kernel 的出现为开发者提供了一个强大且灵活的工具,使得在不同的环境下调用大型语言模型变得更加简单和高效。通过直接调用本地大模型或兼容 OpenAI 接口的服务,我们可以更好地控制数据的隐私和安全,同时也能够根据自己的需要调整服务的配置和性能。此外,随着技术的发展和社区的贡献,我们期待看到更多的开源项目和工具的出现,这将进一步降低技术门槛,让更多的开发者和企业能够轻松地利用大型语言模型的强大能力。原创 2024-06-17 09:49:56 · 726 阅读 · 0 评论 -
Semantic Kernel 中的流式输出SSE与Vue3前端接收示例
本文将介绍如何在使用 Semantic Kernel 框架的 ASP.NET 项目中使用流式输出 SSE(Server-Sent Events),并展示如何在Vue3前端应用中接收这些数据。并介绍了如何使用 `@microsoft/fetch-event-source` 库使用 POST 方法来接收 SSE 数据。原创 2024-06-17 09:51:48 · 885 阅读 · 0 评论 -
从 CodeGemma 到 CodeQwen1.5:开源编程大模型百家争鸣
你的私人编码副驾驶已准备就绪,CodeQwen1.5 为你提供了一个强大的编程助手,它将成为你开发之旅中不可或缺的伙伴。如果你因为种种原因而无法使用 Github Copilot,那么 CodeQwen1.5 将是你的最佳选择。它的开源、透明、可访问、协作、道德规范、灵活性等优势,将为你的编程工作带来更多的便利和效率。原创 2024-04-18 19:19:08 · 1630 阅读 · 0 评论 -
在Semantic Kernel中使用Qdrant向量数据库
本文将介绍如何在Semantic Kernel中使用Qdrant向量数据库,并演示如何在Semantic Kernel中进行向量更新和查询操作。原创 2024-03-26 10:21:11 · 2204 阅读 · 0 评论 -
Qdrant 向量数据库的部署以及如何在 .NET 中使用 TLS 安全访问
本文介绍了如何使用 Docker 部署 Qdrant 向量数据库,以及其相关的安全配置,并演示了如何使用 .NET 通过 TLS 安全访问 Qdrant 向量数据库。通过本文的介绍,我们可以了解到如何在生产环境中安全地部署 Qdrant 向量数据库,并使用 .NET 客户端通过 TLS 安全访问 Qdrant 向量数据库。原创 2024-03-10 11:46:52 · 2831 阅读 · 0 评论 -
反射助你无痛使用Semantic Kernel接入离线大模型
通过反射和源码修改,我们成功解决了Semantic Kernel接入离线大模型的问题。这个解决方案将使Semantic Kernel能够与像vLLM, llama.cpp等技术的托管开源模型进行交互,同时也允许应用程序指定端点,满足了大家迫切的需求,希望这篇文章能对你有所帮助。原创 2024-01-15 10:04:44 · 1349 阅读 · 0 评论 -
在Jetson设备部署通义千问1.8B大模型
本文主要介绍了如何在 Jetson 设备上使用纯C/C++实现LLaMA模型的推理,而无需安装Python等其他外部依赖。通过本文你将了解如何借助 llama.cpp 项目在NVIDIA的Jetson系列设备上部署大模型,以及如何使用Qwen-1.8B模型进行通用问答任务。原创 2023-12-13 21:51:16 · 5148 阅读 · 28 评论