自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 deepseek+ JBoltAI强大的事件编排! 实现简历筛选

这里面我们选择klb_search为知识库的搜索结果, 选择prompt作为用户的提问, 选择强大的deepseek作为我们的HR建立专家进行回答。接下来就由我来带领大家实现一个简历分析的小应用, 让大家领略一下Spring AI事件编排的强大之处吧!知识库选择我们刚才构建的简历知识库, 然后问题, 选择用户的问题。然后让我们构建一个简历分析的应用, 挂载刚才创建的简历知识库。知识库搜索完成后, 将答案传给大模型, 然后大模型进行解答。首先我们需要把此次进行演示的简历都放到知识库当中~

2025-02-27 17:29:52 341

原创 基于deepseek + JBoltAI使用私有化embedding服务

Hello, 亲爱的小伙伴们, 今天给dajia带来的是, 如何部署自己的embedding服务, 兵器额在spring ai中部署使用使用。

2025-02-27 16:49:40 395

原创 JBoltAI喂饭版配置部署

选择资源类型, 我们支持市面上大多数embedding大模型, 这里的资源名称只是用户给它的一个标识, 然后设置各种频率限制, 点击提交, 完成。Spring AI支持自动构建Function Calling资源, 只需要使用@注解即可, 如果发生了变动, 只需要点击页面的变更同步。然后填写资源名称, 这里的资源名称只是用户给它的一个标识, 没有任何实际意义。目前我们支持市面上两种主流的隐秘数据库, 资源名称: 只是用户给它的一个标识。Embedding类型: 选择一个具体的Embedding实现。

2025-02-27 16:34:58 322

原创 DeepSeek R1本地私有化部署教程(Ollama+JBoltAI)

未来,随着技术的不断发展,DeepSeek R1 还将支持更多功能,比如多模态交互、更强大的上下文理解等。下图是SpringAI应用开发框架里的可视化智能体开发定制工具箱,只要用了深度思考模型,需要显示推理过程只需要配置即可,非常不错,使用DeepSeek R1 蒸馏qwen2.5 1.5B版,效果非常好!下图是基于JBoltAI应用开发平台的智能体开发工具箱,创建的企业库存优化智能体,基于DeepSeek R1的深度思考推理能力,可以帮助企业按照库存现状进行分析和给出优化建议。话不多说,咱们开始吧!

2025-02-27 16:15:42 873

原创 基于deepseek+JBoltAI搭建个人私有知识库! 掌握信息主动权

私有知识库为我们提供了一个持续沉淀知识的空间,让我们能够将日常学习和工作中的点滴收获记录下来,并在后续的学习和实践中不断回顾、补充和完善。通过这种方式,我们可以逐步构建起一个坚实的知识基础,为个人的长期成长和发展奠定坚实的基础。私有知识库可以根据个人的偏好和需求,灵活地收集、整理和分类知识,从而构建出一个专属的知识体系。在当今数字化的世界里,隐私和安全问题日益受到关注。许多公开的知识管理平台可能会面临信息泄露的风险,而私有知识库则可以将个人的知识资产牢牢掌握在自己手中,确保敏感信息的安全性和私密性。

2025-02-27 15:35:13 336

原创 深度剖析AI应用开发框架:Spring AI、Langchain4J与JBoltAI的全方位对比

在 AIGS(AI 生成服务)蓬勃发展,以及信息化系统、数智化改造进程加快的当下,AI 应用开发框架面临着诸多需求,比如高效的大模型适配与接入、强大的 RAG(检索增强生成)功能、丰富的工具箱和组件、与现有系统的深度集成能力,以及高性能和高并发处理能力等。综合来看,在 AIGS、信息化系统改造和数智化改造等场景下,JBoltAI 框架凭借其多方面优势和较高匹配度,更契合企业级的 AI 应用开发与数智化转型需求,而 Spring AI 和 Langchain4J 也各有特点和优势。

2025-02-17 13:24:31 1239

原创 ollama运行GGUF模型

到HuggingFace上下载模型(需要梯子), 没有梯子的可以到ModelScope下载哦~我测试ModelScope的下载速度总是几百KB, 所以这里我用HF作为例子~

2025-02-13 19:21:54 331

原创 什么大模型时代!? 明明是属于你的时代!

最近,DeepSeek R1开源了,这可真是AI界的“大事件💥”,就像一颗重磅炸弹,把平静的湖面炸得波涛汹涌🌊。很多人可能还不知道,这背后其实意味着“小模型时代”已经悄然来临。别急,让我来给大家好好唠唠为啥这么说。大模型的“尴尬😖”与小模型的“逆袭🚀”以前,大模型那可是AI界的“巨无霸🐘”,动不动就上百亿参数,训练一次得花个天文数字的钱💰,还得有超级强大的算力支持。这就跟以前的大型计算机一样,普通人根本玩不起,只能眼巴巴地看着大公司、科研机构在那“秀肌肉💪”。

2025-02-13 17:47:29 338

原创 小模型时代来临~ 如何用ollama跑多个小模型提升并发性能, 用ollama吧

要想发挥OLLAMA的真正实力🎯, 还是要与JBoltAI搭配食用才能发挥其最大价值🤑😂, JBoltAI欢迎亲的随时关注哟🤩😚~

2025-02-13 17:12:06 1204 1

原创 有手就行, 一键调用大模型的能力

Ollama是一个支持在Windows、Linux和MacOS上本地运行大语言模型的工具。跨平台支持:适用于多种主流操作系统。丰富的模型库:涵盖1700+大语言模型,如Qwen、Llama等,可直接下载使用。自定义能力强:用户可通过编写modelfile配置文件,自定义模型的推理参数,如top_p等,以调节模型生成效果。多GPU加速:在多卡环境下,可设置环境变量指定特定GPU,提升推理速度。

2025-02-13 16:07:04 316

原创 ollama参数详解-胎教版

如果希望模型长时间保持在内存中,可以将其设置为更长的时间,例如。:指定每个 GPU 上最大加载模型数量,用于控制 GPU 内存的使用。:指定模型目录的路径,如果系统盘空间不足,可以将模型存储在其他位置。:始终跨所有 GPU 调度模型,用于优化多 GPU 的资源分配。:显示额外的调试信息,用于排查问题和了解系统运行的详细情况。:设置请求队列的最大长度,用于控制系统的并发处理能力。:启动时不修剪模型 blob,用于保留模型的完整数据。:指定允许的源列表,使用逗号分隔,用于控制跨域访问。:指定临时文件的位置。

2025-02-13 15:06:53 1162 1

原创 有手就行, 一键调用大模型的能力

Ollama是一个支持在Windows、Linux和MacOS上本地运行大语言模型的工具。跨平台支持:适用于多种主流操作系统。丰富的模型库:涵盖1700+大语言模型,如Qwen、Llama等,可直接下载使用。自定义能力强:用户可通过编写modelfile配置文件,自定义模型的推理参数,如top_p等,以调节模型生成效果。多GPU加速:在多卡环境下,可设置环境变量指定特定GPU,提升推理速度。

2025-02-13 11:01:27 477 4

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除