基础设施
文章平均质量分 84
wengad
数据治理,数字化转型,大数据、产品、人工智能、AI、产业应用,技术,创新应用
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
flink1.20.2环境部署和实验-2
续flink1.20.2环境部署和实验-1的内容,搭建flink应用开发环境,实现flink消费kafka数据,并打印在控制台。原创 2025-11-08 23:40:52 · 400 阅读 · 0 评论 -
flink1.20.2环境部署和实验-1
本文详细介绍了Apache Flink和Kafka的环境部署过程,针对Flink 1.20.2和Kafka 4.1.0版本提供了两种部署方式:1)非容器化部署需分别配置JDK11和JDK17环境,包括SSH免密登录设置和集群配置;2)推荐使用Podman容器化部署Kafka,简化了流程。部署完成后可通过Web界面(http://[IP]:8081)监控Flink集群状态。最后简要提及实验目标:实现Flink消费Kafka消息并输出到控制台的功能。文章提供了完整的安装流程和关键配置说明。原创 2025-11-08 22:22:46 · 867 阅读 · 0 评论 -
HF Transformer安装和pipeline使用
本文介绍HF transformer的安装和pipeline的简单实用原创 2025-07-27 11:00:38 · 907 阅读 · 0 评论 -
网络智能体研究综述
本文研究网络智能体相关技术,并介绍阿里的websailor网络智能体原创 2025-07-19 12:47:51 · 711 阅读 · 0 评论 -
WSL安装发行版上安装podman
本文在windows11上,使用WSL拉取并创建ubuntu24.04虚拟机,再安装podman,并通过podman拉取了一个n8n的镜像,运行一个容器。在安装过程中,涉及到了OS和podman的国内镜像的配置,可以加速拉取的过程。原创 2025-06-29 16:41:30 · 944 阅读 · 0 评论 -
一个n8n构建的能和LLM对话的Agent
本文介绍了如何在Windows环境下通过虚拟机CentOS搭建一个基于n8n工作流平台和OLLAMA本地LLM模型的对话Agent。内容包括:1)OLLAMA的下载安装、环境变量设置和模型拉取;2)n8n的容器化部署流程;3)创建对话工作流的具体步骤,包括凭证配置和模型选择。该方案能快速构建具备LLM对话能力的Agent,适合入门使用,但需注意n8n的商用收费政策。整个系统采用本地化部署,保障数据隐私性。原创 2025-06-10 23:39:04 · 1029 阅读 · 0 评论 -
单机上使用docker搭建minio集群
这里在ubuntu上单机安装一个minio集群,可以作为比如GIT-LFS的存储,用于存放大模型权重文件等。原创 2025-02-23 23:20:48 · 1392 阅读 · 0 评论
分享