- 博客(11)
- 收藏
- 关注
原创 【AI基础】使用Ollama部署本地LLM大模型(DeepSeek-R1:7B)
Ollama 是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。Ollama 提供对模型量化的支持,可降低模型的显存要求,使得在PC或笔记本上运行大型模型成为可能,是开发者尝试本地LLM大模型服务的推荐方式之一。
2025-06-06 23:35:48
423
原创 【AI基础】使用LM Studio运行你的第一个本地LLM大模型(DeepSeek-R1-0528-Qwen3-8B)
本地运行大模型的工具,LM Studio和Ollma是最受欢迎的两款。LM Studio支持专门为M系列芯片适配过的模型文件,对于有Mac M系列芯片的同学来说,使用LM Studio来运行本地大模型,是比较推荐的方式。
2025-06-06 08:03:28
1085
原创 手把手教你在Kubernetes 集群配置 IPv4/IPv6 双栈
配置核心:启用控制平面双栈参数 + CNI 插件双栈支持 + 双栈 Service 定义。验证关键:Pod/Service 双栈 IP、路由表、DNS 解析、外部访问测试。流量选择:IPv6 优先(若客户端和服务端均支持),否则回退 IPv4。通过以上配置和验证,可实现 Kubernetes 集群的 IPv4/IPv6 双栈支持,适应未来网络演进需求。
2025-02-13 00:49:24
1084
1
原创 Kubernetes集群开启ipv6双栈后,数据流向浅析
场景IPv4 使用条件IPv6 使用条件Pod 到 Pod目标仅 IPv4 或客户端强制 IPv4双方支持 IPv6 且未强制指定 IPv4Service 访问(ClusterIP)客户端仅支持 IPv4 或 Service 未配置 IPv6Service 有 IPv6 VIP 且客户端支持双栈DNS 解析DNS 返回 IPv4 或客户端禁用 IPv6DNS 返回 IPv6 且客户端优先选择外部访问(LoadBalancer)外部 IP 为 IPv4 或客户端不支持 IPv6。
2025-02-12 23:07:15
709
原创 【AI基础】K8S环境使用GPU--Kubernetes环境(三)
以常见的NVIDIA GPU为例,系统为Linux通过三篇文章,介绍了如何在普通机器、Docker环境、Kubernetes环境中使用GPU。后续,将介绍如何在Kubernetes环境搭建AI应用,敬请期待~
2025-01-05 23:55:47
1627
2
原创 【AI基础】K8S环境使用GPU--裸机环境(一)
安装对应的GPU Driver(GPU驱动),以及CUDA Toolkit至此,我们已完成裸机环境安装GPU驱动和CUDA Toolkit的过程,下篇文章将介绍如何在Docker环境安装及使用GPU,为创建AI应用做好准备~
2025-01-03 00:39:10
668
原创 【Kubernetes基础】Helm工具入门与使用
Helm作为Kubernetes的包管理工具,学习掌握Helm的使用对Kubernetes上的应用管理很有帮助,快来试试,用Helm搭建你的Kubernetes应用,大大提高效率哦~
2024-09-22 17:58:29
2786
原创 【Kubernetes基础】常用命令大全
Kubernetes常用命令很多,本文将持续更新,补充更多Kubernetes使用场景及命令,敬请期待~
2024-09-22 00:16:10
539
原创 【Docker基础】Docker Desktop入门使用指南
本文简要介绍Docker Desktop的安装及使用,以及如何启动一套本地Kubernetes服务,快来试试看,搭建你的本地Docker和Kubernetes环境接下来,将继续更新云原生相关内容,敬请期待,respect!
2024-09-21 12:11:13
53334
3
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人