
AIGC
文章平均质量分 86
本专栏深入探讨大模型的实际应用,从文本生成到多模态内容创造,覆盖模型微调、量化及部署全流程。我们将解析检索增强生成(RAG)技术及其进阶形式Agentic RAG,同时探索智能Agent的构建。无论您是开发者还是行业观察者,这里都将为您提供前沿的技术洞见与实战经验分享。
space01
AIoT & AIGC
展开
-
基于 dGPU部署NanoDB,实现基于clip和faiss-gpu的高性能多模态检索
当前是基于Jetson实现的,并没有在dGPU上部署的说明。为此, 参考上述的项目实现了在dGPU的NanoDB的部署,如T4。下面是具体的部署过程。整个部署使用docker实现,因为涉及依赖库较多,普通的物理机部署较为复杂。原创 2024-12-12 16:36:40 · 145 阅读 · 0 评论 -
基于Cursor + Ollama + Qwen2.5-coder搭建本地编码助手
为了能够实现整个搭建过程,首先需要准备大模型服务,并且使用本地部署大模型实现本地的编码助手。原创 2024-11-12 17:16:33 · 10255 阅读 · 4 评论 -
Qwen大模型手动部署Ollama
如果编译llama.cpp的测试工具main,在llama.cpp目录执行make -j,会在当前目录生成main文件。1> 将qwen的huggingface safetensors转为llama.cpp的二进制文件。若重新生成,需先删除之前的converted.bin,否则报错。2> 测试转换的模型是否能正常运行。安装llama.cpp依赖。原创 2024-10-16 14:12:12 · 405 阅读 · 0 评论 -
Ollama及其Open-WebUI部署更新
启动、关闭ollama。原创 2024-10-15 17:25:06 · 3898 阅读 · 0 评论 -
LLaVA多模态大模型环境搭建
LLaVA 的早期实验表明,它展示出令人印象深刻的多模型聊天能力,有时会表现出多模型 GPT-4 在未见过的图像/指令上的行为,并在合成多模型指令遵循数据集上获得与 GPT-4 相比 85.1% 的相对分数。总之,LLaVA 的主要功能和特点是通过使用机器生成的指令遵循数据对大型语言模型进行指令调整,以提高新任务的零射击能力,并在多模态领域展示出令人印象深刻的聊天能力。设置为较低的值时,预测词的概率会变尖锐,这意味着选择最有可能的词的概率更高。可以分析图像,描述图像,进行物体识别,分析理解场景。原创 2024-10-15 15:57:26 · 291 阅读 · 0 评论 -
Grounded-SAM Demo部署搭建
(5)inpainting:通过结合Grounding DINO + Segment Anything + Stable Diffusion实现文本交换并替换目标对象(需要指定文本提示和inpaint提示)。(6)automatic:通过结合BLIP + Grounding DINO + Segment Anything实现非交互式检测+分割(无需指定提示)。(4)seg:通过结合Grounding DINO和Segment Anything实现文本交互,实现检测+分割(需要指定文本提示)。原创 2024-10-12 17:13:12 · 633 阅读 · 0 评论 -
基于AutoGen+Ollama+Litellm构建知识库问答系统
之前已经。但是随着智能体的发展,基于智能体构建知识库问答系统逐渐成为主流。下面就以多智能体框架AutoGen、托管大型语言模型的平台Ollama、模型选择和切换工具Litellm为基础构建一个多智能体的知识库问答系统。同时搭建一个多智能体对话系统。原创 2024-10-12 16:05:27 · 579 阅读 · 0 评论 -
基于大模型LLama2+Langchain构建知识库问答系统
知识库需求在各行各业中普遍存在,例如制造业中历史故障知识库、游戏社区平台的内容知识库、电商的商品推荐知识库和医疗健康领域的挂号推荐知识库系统等。传统知识库搜索系统基于关键字匹配,缺少对用户问题理解和答案二次处理能力。为保证推荐系统的实效性和准确性,需要大量的数据/算法/软件工程师的人力投入和包括硬件在内的物力投入。其次,为了进一步提高搜索准确率,如何引导用户搜索描述更加准确和充分利用用户行为优化搜索引擎也是常见的用户痛点。此外,如何根据企业知识库直接给出用户提问的答案也是众多企业中会遇见的技术瓶颈。原创 2024-10-11 19:43:49 · 1276 阅读 · 1 评论