AI工具实战
文章平均质量分 95
介绍各种AI工具链的使用
GeekABC
热爱编程、热爱Python、热爱C/C++、热爱Rust、热爱一切美丽的语言!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Ollama入门,一键启动本地DeepSeek大模型
Ollama 是一个轻量级的本地大语言模型(LLM)运行工具,允许用户在本地环境中运行和交互 AI 模型,支持多种热门的大语言模型,如 DeepSeek、Qwen、LLaMA、Mistral、Gemma 等。原创 2025-03-14 10:13:48 · 1399 阅读 · 0 评论 -
Ollama入门,Ollama技术架构与原理
Ollama与llama.cpp、LLaMA、Transformer形成了人工智能的自然语言处理领域从架构设计*到模型实现,再到推理运行和用户友好化封装的完整生态链。其中Ollama封装了模型的下载、管理和运行过程,承担了直接面向用户的角色。原创 2025-03-19 13:29:02 · 1855 阅读 · 0 评论 -
Ollama进阶,在Python、Java、Go项目中集成Deepseek、QWQ大模型
如何在Python、Java、Go项目中集成运行在Ollama中的Deepseek、QWQ大模型?本文提供了RESTful API和SDK两种方式的实现。原创 2025-03-15 13:35:28 · 1366 阅读 · 0 评论 -
Ollama进阶,在Javascript(nodejs)前后端项目中集成Deepseek、QWQ大模型
如何在JavaScript(包括 Node.js 和前端浏览器环境)中整合Ollama本地大模型服务。本文给出了5种不同方法供参考。原创 2025-03-16 10:56:32 · 2060 阅读 · 0 评论 -
Ollama高手,玩转本地自定义大模型(LLM)
在项目中,需要根据自身行业特征、企业自有数据集对一些通用模型进行微调后集成到项目中,这时就需要在Ollama中自定义大模型。本文提供了在Ollama中自定义大模型的基本方法。原创 2025-03-18 15:53:13 · 1902 阅读 · 0 评论 -
Ollama高手,调优Ollama模型参数,提高模型输出质量
在Ollama中,模型参数主要用于控制模型的行为和推理过程。通过调整这些参数,你可以影响模型的输出质量、生成速度、资源占用等方面。原创 2025-03-20 16:34:12 · 9044 阅读 · 1 评论 -
Ollama高手,调优Ollama环境变量,提高性能与安全性
通过调优Ollama的环境变量,可以充分调动本地机器的软硬件资源,以提升系统的性能,解决Ollama默认配置存在未授权访问与模型窃取等安全隐患。原创 2025-03-20 16:30:07 · 7620 阅读 · 0 评论
分享