- 博客(6)
- 收藏
- 关注
原创 LocalAPI.AI :一款兼容多平台的一站式本地 AI调用工具
是一款专为Ollama量身打造的本地 AI 管理工具,同时兼容 vLLM、LM Studio、llama.cpp 等多种主流本地 AI 部署平台。它集成了智能对话、文本生成、多模态图像识别等功能,并提供全面的模型管理支持,包括模型复制、删除、拉取、更新、创建以及模型量化等高级功能,同时支持弹性参数设置,满足不同用户的需求。是一款功能强大、安全可靠且易于使用的本地 AI 管理工具。它不仅为 Ollama 提供了深度集成,还兼容多种主流本地 AI 部署平台。
2025-04-02 09:18:23
815
原创 LocalAPI.ai重磅升级:Ollama本地AI交互新利器,功能解析与技术亮点
LocalAPI.ai重磅升级,支撑多模态图像识别和完善的在线模型管理功能
2025-03-19 10:07:22
1486
原创 Ollama未授权访问复现过程:从接口到可视化管理
Ollama是一个开源的AI模型管理工具,广泛用于模型的部署和管理。然而,近期发现其存在未授权访问漏洞,攻击者可以无需认证访问某些关键接口,获取敏感信息。为了更好地理解这个漏洞,我们将通过实际操作来复现这一过程。通过上述步骤,我们成功复现了Ollama未授权访问漏洞,并利用进行了可视化模型管理。这个过程不仅展示了漏洞的危险性,还提供了如何利用这些接口进行进一步操作的详细步骤。
2025-03-14 17:46:16
816
原创 用一个HTML文件打造你的Ollama客户端:技术极客的轻量级解决方案
LocalAPI.ai 是一个基于浏览器的轻量级 Ollama 客户端工具,近期更新了github仓库,通过一个简单的 HTML 文件即可实现强大的 AI 交互功能。
2025-03-12 14:59:21
1075
原创 近期Ollama未授权访问漏洞Nginx反向代理解决修复方案
近期,国家信息安全漏洞共享平台(CNVD)收录了Ollama未授权访问漏洞,本文介绍通过nginx反向代理进行修复。
2025-03-06 10:49:27
677
原创 基于浏览器运行的 Ollama WEB客户端开源发布
可直接下载集成LocalAPI.ai的Nginx,修改nginx.conf配置文件中的的Ollama API地址既可以一键启动。:优化了浏览器的适配,用户可以在手机等移动设备上流畅地访问系统,进行远程模型调用和相关操作。:支持通过 API 远程调用 Ollama 模型,实现云端计算资源的高效利用。:在交互界面中,代码片段会自动进行语法高亮显示,提升代码可读性和编写效率。:支持多种 Ollama 模型,满足不同场景下的需求。:提供身份验证和访问控制机制,确保模型调用的安全性。# 可选:处理其他静态资源请求。
2025-03-05 22:52:55
859
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人