
AI大模型应用与实战
文章平均质量分 91
从0~1逐渐研究llama语言模型、comfyui工作流模型服务开发与应用
沙漠绿州
行动胜于言辞,每天坚持学习成长一点点
展开
-
A9. Jenkins Pipeline自动化构建,飞书通知
这里从服务构建、镜像上传、到服务部署,最后到版本发布通知整个过程已经介绍完成了;整个过程我们利用pipeline进行自动化构建发布;当然如果要进行CICD可持续集成的话,也可以创建gitlab webhook地址与jenkins进行绑定;在当前专栏中我们阐述的是服务自动化构建的基础原理与过程,后期也可以该过程制作成自动化可视化操作流程;关注我,在之后将了解到更多的相关技术文档和实用的工具介绍;原创 2025-02-18 22:17:49 · 890 阅读 · 0 评论 -
A8. Jenkins Pipeline自动化部署过程,多模块远程服务协调实战
这里通过将服务打包成docker镜像并推送到harbor仓库,然后由jenkins调度部署主机的本地化脚本,虚拟化出目标主机的远程环境来达到远程服务动态更新的目的。当然构建-部署方式的有很多种,个人觉得这种方式虽然实现起来稍微有点麻烦,但相对能用性比较强。在实际应用场景根据自己的情况选择合适的方式且善长的知识才有利于项目推进。原创 2025-02-09 11:29:36 · 1081 阅读 · 0 评论 -
A7. Jenkins Pipeline自动化构建过程,可灵活配置多项目、多模块服务实战
jenkins Pipeline服务自动化构建全过程,支持多项目、多模块灵活配置,在团队实际开发中是一个非常实用的利器。原创 2025-01-27 22:37:44 · 2290 阅读 · 0 评论 -
A6.Springboot-LLama3.2服务自动化构建(三)——编写Pipeline构建仓库初始化脚本
编写Pipeline构建仓库初始化脚本原创 2025-01-19 18:32:52 · 2253 阅读 · 0 评论 -
A5.Springboot-LLama3.2服务自动化构建(二)——Jenkins流水线构建配置初始化设置
Jenkins流水线构建配置初始化设置原创 2025-01-18 19:45:38 · 1419 阅读 · 0 评论 -
A4.Springboot-LLama3.2服务自动化构建(一)——构建docker镜像配置
以上就是服务打docker镜像包的全部过程,非常简单。后面我们结合jenkins进行服务构建自动化相关的配置。原创 2025-01-15 15:38:57 · 880 阅读 · 0 评论 -
A3. Springboot3.x集成LLama3.2实战
本文将介绍集成ollama官网提供的API在Springboot工程中进行整合。由于没找到java-llama相关合适的sdk可以使用,因此只好对接官方给出的API开发一套RESTFull API服务。下面将从Ollama以下几个API展开介绍,逐渐的了解其特性以及可以干些什么。具体llama API说明可参数我前面写的《》文章,根据官网整理出来的参数定义与数据响应说明等。原创 2025-01-12 21:20:09 · 1028 阅读 · 0 评论 -
A2. 大语言模型llama API服务调研
自然语言模型大家听的比较多的是OpenAI,它有聊天(Chat)、补全(Completion)、提取结果信息(Extract Result Information)、模拟聊天(Mock Chat)等功能;原创 2025-01-12 19:34:38 · 979 阅读 · 0 评论 -
B1.ComfyUI工作流模型本地部署
ComfyUI 是一个基于节点的图形用户界面(GUI),专为 Stable Diffusion 设计。它将图像生成过程分解为多个文本提示的节点,每个节点都有自己文本提示节点的功能原创 2025-01-08 11:01:56 · 641 阅读 · 0 评论 -
A1.本地大模型Ollama 3.2部署(For Mini/M系列)
Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(Large Language Models, LLMs)而设计。它提供了一个平台,使得用户能够轻松管理和运行这些复杂的模型,而无需深入的技术知识。帮助用户利用大型语言模型的力量来增强各种应用程序。原创 2025-01-07 10:58:44 · 620 阅读 · 0 评论