AI
文章平均质量分 85
老周聊架构
微信公众号:老周聊架构
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
架构火花 | AI编程驱动组织变革:数据挑战与Agent落地困境
哈喽大家好,我是老周聊架构的主理人老周,今天我们来聊一聊AI编程驱动组织变革:数据挑战与Agent落地困境的话题。前两天参加了腾讯云架构师长沙同盟的圆桌讨论,我会对各位架构师们、企业家们、老师们的思考整理下,并结合自己的思考输出我架构火花第二篇文章。AI编程与团队组织变革数据使用与AI Agent落地AI 开发范式的变革。原创 2025-12-28 21:38:50 · 884 阅读 · 0 评论 -
架构火花 | 提示词工程在AI时代下的思考
哈喽大家好,我是老周聊架构的主理人老周,今天我们来聊一聊提示词工程的话题。为啥今天会写这个呢?是因为前两天我们那个架构群里针对于提示词工程展开了激烈的讨论。下面我会整理各位群里的架构师以及老师们的精彩分享给大家来一起探讨,以及我会给出我最近一段时间对提示词工程的一些思考。原创 2025-12-18 21:09:56 · 780 阅读 · 0 评论 -
YOLO11实战——物体检测识别
老周当时了解YOLO的时候是YOLO8,当时很火,但转眼间就YOLO11了。从官方给的性能图来看YOLO11大概是走到此类任务的天花板了,未来几年目标检测的任务可能不会再有很巨大的提升。MAC使用MPS进行GPU深度模型训练(MPS替代CUDA)原创 2025-12-04 21:17:58 · 230 阅读 · 0 评论 -
小红书运营神器!MCP+AI自动发文,爆文率提升200%
运行后,打开红色标记的链接,配置 MCP inspector,输入 http://localhost:18060/mcp ,点击 Connect 按钮。左侧扩展按钮那可以看到 xiaohongshu-mcp,以及右侧可以看到Running、工具的显示,说明xiaohongshu-mcp集成好了。你也可以测下这个自动发布小红书图文内容,老周这里已经用过了,确实会自动唤起小红书发文的页面,自动填充内容然后再发布。看到下面内容发布成功,好家伙直接生成内容直接发布到了小红书,大功告成!原创 2025-09-26 22:40:34 · 748 阅读 · 0 评论 -
Daft:AI驱动的多模态数据融合引擎
LAS Daft 基于云原生湖仓一体架构,整合了开源分布式执行引擎 Daft 的强大能力,实现了对图文、音视频、点云等多模态数据的统一处理。该系统覆盖了从数据清洗、格式转换到零拷贝对接训练框架的完整数据处理流程。原创 2025-09-21 20:11:59 · 1321 阅读 · 0 评论 -
智能推荐新纪元:快手生成式技术对系统边界的消融与重建
老周这次受邀作为嘉宾参加了AICon全球人工智能开发与应用大会,本文将基于快手科技副总裁、基础大模型及推荐模型负责人周国睿老师在AICon大会的演讲内容,基于我自己的思考总结分享给大家。原创 2025-09-14 21:51:22 · 1085 阅读 · 0 评论 -
阿里云大模型应用实战:从技术落地到业务提效
本文将基于阿里云智能蒋林泉老师在 AICon 大会的演讲内容,深入探讨企业级大模型应用的实战经验,分享从技术落地到业务提效的全过程方法论。原创 2025-08-24 15:48:30 · 1427 阅读 · 0 评论 -
DeepSeek技术架构解析:MLA多头潜在注意力
我们上一篇已经讲了 DeepSeek技术架构解析:MoE混合专家模型这一篇我们来说一说DeepSeek的创新之一:MLA多头潜在注意力。MLA主要通过优化KV-cache来减少显存占用,从而提升推理性能。我们知道这个结论之前,老周带大家一起梳理一下从MHA、MQA、GQA到MLA的演变历程,并着重介绍一下MLA的设计思路。DeepSeek这次的破圈,主要的创新之一:Multi-head Latent Attention架构(MLA),作为对Grouped-Query Attention(GQA)的颠覆性升级原创 2025-04-01 23:40:57 · 1820 阅读 · 0 评论 -
DeepSeek技术架构解析:MoE混合专家模型
2025年初,DeepSeek V3以557万美元的研发成本(仅为GPT-4的1/14)和开源模型第一的排名,在全球AI领域掀起波澜。其核心创新之一——混合专家模型(Mixture of Experts, MoE)的优化设计,不仅突破了传统大模型的算力瓶颈,更以37B激活参数实现671B总参数规模的性能输出,成为开源社区与工业界关注的焦点。本文将从技术原理、工程创新、应用潜力及争议四个维度,深度解析这一架构的设计逻辑与行业意义。原创 2025-03-23 21:47:41 · 1926 阅读 · 0 评论 -
本地部署DeepSeek R1满血版大模型
这种方案即不要求电脑配置,还能用上满血版的DeepSeek-R1,回答速度还很快,算是目前最优方案了,免费的真香。当然,这个方案是备选方案,官网能使用的情况下还是推荐直接官网使用,不过最近DeepSeek经常提示服务器繁忙,让你想用的时候没得用,没关系,老周这本地部署DeepSeek R1满血版大模型也很香,速度也算快关键免费不吃你的硬件资源。原创 2025-02-25 22:40:26 · 1243 阅读 · 0 评论 -
本地部署DeepSeek R1大模型
下载完成后,你已经可以直接使用Deepseek R1这个大模型了。不过,为了让大家有更好的体验,我特别推荐使用Cherry Studio这个工具。它不仅能调用你本地下载的模型,还可以连接各种云端模型服务,使用起来非常便捷。然后在聊天界面,选择你所要对话的大模型,就可以直接对话了。打开终端(Mac OS)或运行(Windows,可以用win键+r快捷键弹出),粘贴刚刚复制的代码(ollama run deepseek-r1:8b)根据自己电脑的配置选择不同参数的模型,根据自己电脑的配置选择不同参数的模型。原创 2025-02-21 23:30:41 · 1917 阅读 · 0 评论 -
深度学习实战——卷积神经网络CNN在图片识别中的应用以及原理
随着人工智能和深度学习技术的迅猛发展,卷积神经网络(Convolutional Neural Networks,CNN)已经成为计算机视觉领域中最为重要的工具之一。无论是在图像分类、目标检测,还是在人脸识别、自动驾驶等应用中,CNN都展现出了其卓越的表现和广泛的应用前景。本文旨在通过深入的实战案例,带领读者一步步理解并掌握CNN的核心原理及其在图片识别中的应用。我们将通过实际操作和代码演示,帮助读者将理论与实践相结合,全面提升在深度学习方向上的技能,为解决复杂的图像处理问题打下坚实的基础。原创 2025-02-17 21:26:19 · 1905 阅读 · 0 评论 -
MAC使用MPS进行GPU深度模型训练(MPS替代CUDA)
随着深度学习的广泛应用,硬件加速成为了模型训练的重要因素。GPU凭借其强大的并行计算能力,已经成为深度学习训练的首选设备。然而,在不同的操作系统上,由于硬件厂商和软件生态的差异,GPU加速的实现方式也各有不同。在Windows和Linux系统中,CUDA(Compute Unified Device Architecture)是由NVIDIA提供的GPU计算框架,得益于NVIDIA显卡的广泛使用和成熟的软件生态,CUDA已经成为深度学习领域事实上的标准。原创 2025-01-11 16:47:43 · 3548 阅读 · 0 评论
分享