- 博客(175)
- 收藏
- 关注
原创 开源视频生成新标杆:美团LongCat Video全面解析与实战指南
LongCat Video 的精妙之处在于其核心架构。这是因为他们非常巧妙地设计了一个单一管道来处理多项任务,包括文本到视频、图像到视频和视频延续。他们认为,所有这些任务都应被定义为视频延续,即模型根据给定的一组前置条件帧来预测未来的帧。为了实现这一点,他们采用了相对标准的扩散变换器架构,并配有单流变换器块。“每个块包含一个 3D 自注意力层、一个用于文本条件的交叉注意力层,以及一个带有 SwiGLU 的前馈网络。为了进行调制,他们利用了 AdaLN-Zero,其中每个块都包含一个专用的调制 MLP。
2025-12-03 15:13:05
765
原创 碾压GPT-5,Qwen3-VL开源多模态新标杆:99.5%长视频定位准确率
在发布 Qwen3-VL 数月后,阿里巴巴近日发布了这款开源多模态模型的详细技术报告。数据显示,该系统在基于图像的数学任务上表现出色,并能分析数小时的视频内容。该模型可处理海量数据,在 25.6 万 token 的上下文窗口内,轻松处理两小时长的视频或数百页的文档。在“大海捞针”(needle-in-a-haystack)测试中,其旗舰版 2350 亿参数模型能在 30 分钟视频中以 100% 的准确率定位单个关键帧。即使在包含约 100 万 tokens 的两小时视频中,其准确率仍高达 99.5%。
2025-12-01 17:05:06
1556
原创 简化工作流:DigitalOcean App Platform 正式支持环境管理
作为开发者,DigitalOcean 的团队同样热爱构建各种各样的应用,但也深知随着应用组合不断增长,管理它们会变得越来越复杂。生产服务、staging 环境和新功能分支部署之间的界限可能变得模糊不清。快速识别哪些应用属于哪个用途,并一眼看清所有“生产”应用,已成为一项重大的组织挑战。
2025-11-26 15:45:46
312
原创 AI 训练与游戏出海的新选择:比 AWS EFS 更便宜、更透明的企业级云存储来了
:你只需要为存储空间付费,剩下的性能、流量、请求次数,全部打包在内。
2025-11-25 16:03:15
1523
原创 教程:利用智源悟界Emu3.5,生成可视化任务指南
Emu3.5 可以说是近期图像生成领域最具突破性的技术之一。它能把图像和文本交替生成,组合成故事或操作指南,这让 LLM 与视觉能力真正集成到了可解决实际问题的方向。此外,Emu3.5 本身也是非常强大的图像生成和编辑模型。我们非常推荐使用 Emu3.5 来创作视觉指导内容或图像编辑任务。它在多个维度上都领先于同类模型。
2025-11-21 14:57:28
1181
原创 DigitalOcean 开发者沙龙上海站落幕:五大硬核议题拆解 AIGC 落地的真实挑战
随着五位嘉宾的深度分享,本次 DigitalOcean 开发者沙龙以完整的技术链路,呈现了 AIGC 落地过程中最重要的四个底座:算力、存储、知识结构化与高效推理。从硬件到软件、从本地到云端、从模型工具链到工程优化,每一个环节都在快速迭代,而这也意味着企业与开发者正站在一个前所未有的创新窗口期。
2025-11-18 18:01:14
288
原创 基于AI Agent模板:快速生成 SQL 测试数据
Gradient AI 平台是 DigitalOcean 提供的一个一体化 AI 云服务平台,覆盖从生成式模型调用、智能 Agent 构建、GPU 服务器(如 H200、H100、RTX 6000 等按需/裸金属)、到 Serverless 推理服务的完整流程。Agent Templates 是在 平台上构建的、以代码为核心的即插即用入门套件。每个模板都是一个 Python 项目,你可以在几分钟内克隆、配置并部署。
2025-11-13 16:29:39
799
原创 零门槛部署:在AMD MI300X上极速部署运行GPT-OSS 120B全流程实践
vLLM 是一个开源的高性能推理引擎,专为以卓越的速度和内存效率提供大型语言模型(LLM)服务而设计。通过优化 GPU 内存利用率,vLLM 比许多其他竞争方案提供更快的响应速度、更高的吞吐量和更低的延迟。其核心创新包括 PagedAttention 算法、对连续批处理的支持,以及与 Hugging Face 等主流模型生态系统的无缝兼容性。我们推荐使用 vLLM,正是基于这些优势特性。
2025-11-12 16:00:01
1632
原创 广告平台在 AI 时代如何选择 GPU 与云平台?
在广告科技的竞争赛道中,AI 已成为制胜关键,而 GPU 则是支撑这一切的核心引擎。广告平台若要在实时竞价、创意生成与智能定向上保持领先,就需要兼顾性能、成本与部署效率。DigitalOcean 通过其 GPU Droplet 产品,让广告团队能够以更低成本、更快速度构建 AI 驱动的广告系统。无论是初创的广告优化团队,还是全球化的 Ad Network,都能在这一平台上实现灵活扩展与高效运行。未来的广告,不只是创意之争,更是算力与智能的竞赛。选择合适的 GPU 云平台,正是赢得这场竞赛的起点。
2025-11-11 16:41:25
1366
原创 在 DigitalOcean GPU 云服务上使用 LangChain 构建Serverless AI 应用
全新的兼容现有 LangChain 代码的即插即用方案:只需几行代码即可切换到 Gradient AI 的推理端点,无需重写或重构。**延续 LangChain 的熟悉抽象(Chains、Tools、Agents)**:继续使用你熟悉的构建方式——组合链、接入工具、启动智能体,无需更改工作流。多模型可选:在 DigitalOcean 上即时访问多种 GPU 加速的 Serverless AI 模型。开放与灵活。
2025-11-07 17:48:38
2013
原创 AI 推理 GPU 选型指南:从 A100 到 L40S 再看 RTX 4000 Ada
如果你的部署以 推理为核心,且预算敏感、在线服务需求强烈,选择 L40S 为高性价比路线。如果你的需求兼顾 训练 + 推理、模型规模极大、预算容许,A100 仍是稳妥之选。如果你的预算极端受限、模型规模小、功耗敏感,则 RTX 4000 Ada Generation 可成为实际可用选项。最终,正确的选型不是追求“最强”而是匹配你的任务需求、预算结构与部署背景。希望本文能为你的 GPU 选型决策提供清晰、理性的指导。在 AI 模型日新月异的今天,选择合适的 GPU 云平台至关重要。
2025-10-31 17:16:36
2576
原创 裸金属 vs. 虚拟化 GPU 服务器:AI 训练与推理应该怎么选
AI 基础设施的选择,本质上是“性能”与“弹性”的权衡。裸金属服务器代表确定性与极致算力,虚拟化服务器代表敏捷与成本效率。成熟的团队会根据任务阶段动态切换两种架构——在开发阶段快步试错,在生产阶段稳定提速。当 AI 成为业务的核心生产力,算力架构的每一个选择,都将成为你竞争力的放大器。
2025-10-30 17:47:26
1540
原创 利用腾讯开源 Hunyuan3D 2.1:在 DigitalOcean GPU Droplet 上快速搭建 3D 模型
它主要由两个完全公开的基础模型组成,即 Hunyuan3D-DiT ——“一种结合了基于流的扩散架构与高保真网格自编码器(Hunyuan3D-ShapeVAE)的形状生成模型”,以及 Hunyuan3D-Paint ——“一种基于网格条件的多视角扩散模型,用于生成 PBR 材质,产出高质量、多通道对齐且视角一致的纹理”。例如,在上文示例中,我们可以看到被极度拉长的尾巴和地面平台。你将全面掌握从图像生成、环境配置到 3D 模型导出的完整流程,亲身感受 AI 如何以前所未有的速度和效率,实现你的 3D 创意。
2025-10-29 16:33:35
1700
原创 深度学习零基础教程:在 DigitalOcean GPU 云主机上一步搭建 Jupyter Lab
在本教程中,我们将逐步介绍如何在上搭建 Jupyter Lab 或 Jupyter Notebook 实例。此外,我们还会分享一些关键技巧,帮助你在 Jupyter Notebook 中顺利运行深度学习代码。
2025-10-29 15:16:08
1392
原创 DigitalOcean Gradient™ 平台上线 fal 四款多模态 AI 模型:快速生成图像与音频
DigitalOcean 云平台近期宣布,来自 fal.ai 的四个多模态 AI 模型已在上架,现在可通过 Serverless Inference 以公开预览版的形式使用。借助这些模型,你可以直接通过 API 生成图像和音频,无需操心基础设施、扩缩容或供应商管理。此次发布后,构建包含视觉与音频内容的 AI 驱动应用变得前所未有的简单。对于不熟悉的开发者来说,这里简单介绍一下。它是一家专注于为提供的公司。简单来说,fal.ai 致力于解决 AI 模型推理速度慢、部署复杂的问题。
2025-10-24 17:10:52
1843
原创 DeepSeek-OCR 如何将你的 LLM 上下文提升 10 倍?原理、实践与云端部署指南
DeepSeek-OCR 是一款极具创新性和前瞻性的工具。它巧妙地利用视觉编码和 OCR 技术,将文档转换为视觉表示,从而有效地实现了Token 消耗的降低、上下文长度的扩展和文档处理效率的提升。无论您是进行大规模文档处理、高精度 OCR,还是需要扩展 LLM 的上下文窗口,DeepSeek-OCR 都值得您深入探索和实践。在云部署环节, Droplet是一个优秀且可靠的选择:它具备操作简便、规格灵活、成本可控等优势。如果您决定尝试,选用1 个 H200 GPU。
2025-10-23 16:06:30
1460
原创 普通服务器都能跑:深入了解 Qwen3-Next-80B-A3B-Instruct
Qwen3-Next-80B-A3B-Instruct 拥有 800 亿参数,但在推理过程中仅激活 30 亿参数,因此也被称为下一代基础模型。Qwen3-Next-80B-A3B 引入了混合注意力架构、高稀疏度专家混合 (MoE**)** 设计和**多令牌预测 (MTP)**,在吞吐量、成本效率和长上下文理解方面实现了显著改进。混合注意力结合了不同类型的注意力机制,可以更高效地处理信息。它使模型能够在不牺牲性能的情况下,同时关注短期细节和长距离依赖关系。
2025-10-21 16:40:44
1658
原创 Qwen 2509、Gemini、Flux谁是王者?顶级文生图AI模型能力对比
自诞生以来,图像生成一直是 AI 最受欢迎的用例之一,正如我们在本博客中广泛介绍的那样。从像和 Hi-Dream 这样的模型中,我们看到了大量资源投入到微调的开发中,由此产生的艺术作品令人惊叹。文生图模型(text-to-image models)能做的事情实在太多了——它让任何人都有可能将想象变为现实。但这些模型并非完美无缺。通常,一张本应完美的图像会被一些微小的瑕疵或错误破坏。例如,图像模型曾经有一个臭名昭著的弱点,那就是在处理时会遇到困难,这使得在野外很容易识别出 AI 生成的图像。
2025-10-17 16:13:44
1954
原创 AI 图像编辑新玩法:用 Qwen Image Edit 2509 一键实现虚拟试衣
我们先来分解一下整个 Web 应用的结构。在下面的应用代码中,我们添加了注释,帮助你理解其主要内容与逻辑。gap:.5rem;gr.on(gr.on(正如我们所看到的,这个应用的代码相当简洁。它主要由两个函数组成: 一个用于通过Diffusers加载模型及其对应的 LoRA,另一个用于运行服装提取或虚拟试衣流程。前者在单张图像上进行服装提取,后者使用两张图像完成服装试穿。最终,程序会生成一张.webp格式的输出图像,可直接预览或下载。在这个过程中,真正承担主要计算任务的是。
2025-10-14 16:18:53
2120
原创 NVIDIA HGX H100 GPU 服务器现已在 DigitalOcean 欧洲数据中心上线
对资源的需求,尤其是用于的需求,正持续呈指数级增长。我们深知,欧洲的开发者和企业需要简单、地访问强大的,以保持他们的创新渠道快速发展。同时,也有不少中国及其他地区的企业希望在欧洲的数据中心使用 GPU 服务器。DigitalOcean 近日宣布,现已作为——DigitalOcean 的按需实例——在。和。wp:heading。
2025-10-10 14:55:57
3854
原创 DigitalOcean 托管数据库自动扩容正式上线
我们为全球托管数据库推出存储自动扩缩功能。它能实时监控并在存储告急时自动扩容,彻底消除“磁盘已满”宕机风险,降低运维负担与成本,确保应用高性能与高可靠性。
2025-10-09 15:51:52
699
原创 DigitalOcean Kubernetes 现已支持 Gateway API 托管服务
在 DigitalOcean Kubernetes 集群中管理流量,一直以来主要依赖。虽然能满足基本需求,但在灵活性、角色分离和高级路由方面仍存在局限。今天,我们很高兴迎来新的改变。我们正式宣布,现已预装在所有 DigitalOcean Kubernetes(DOKS)集群中,无需额外费用,即开即用。这一新一代流量管理方案,比 Ingress 更具表现力、更易扩展、也更加强大。更重要的是,它基于,在无需传统代理开销的情况下,提供卓越的性能和先进的路由能力。
2025-09-11 15:53:23
1159
原创 H100 云算力哪家强?AWS、Azure、DigitalOcean等8大平台对比
除非你的业务已经深度锁定在某家大厂生态中,否则在通用 GPU 算力需求上,DigitalOcean 的性价比和灵活性远超云计算巨头。
2025-09-11 11:15:09
2609
1
原创 为什么说 Linode 和 DigitalOcean 的差距,不止于 VPS?
在今天这个全球化的商业战场上,中国企业的出海已从“选择题”变为“必答题”。当我们满怀雄心,将产品和业务推向海外市场时,基础设施的选择,往往是决定成败的第一步。它不仅关乎成本与性能,更直接影响着团队的开发效率、业务的弹性扩展,以及在全球市场的长期竞争力。云计算,作为现代企业的数字基石,其重要性不言而喻。然而,面对海外琳琅满目的云服务商,如何做出最适合自身业务的抉择?
2025-09-05 14:52:42
2109
原创 从零搭建AI客服!基于GPT-OSS和知识库的客户支持系统实战
Gpt-oss-120b 和 gpt-oss-20b 是 OpenAI 发布的两个开源推理模型。现在 DigitalOcean 的用户在 Gradient AI 平台创建 GPU Droplet 服务器时,可以直接。在本教程中,我们将演示如何在 DigitalOcean 的 Gradient™ AI 平台上使用 gpt-oss-120B 构建一个客户支持 AI Agent。
2025-09-01 16:08:41
1927
1
原创 DigitalOcean、AWS和Linode对比,该选谁?不止于价格
深度对比DigitalOcean、AWS和Linode三大云服务,为中国企业出海提供决策指南。
2025-08-29 14:43:15
2588
原创 DigitalOcean GPU 选型指南(三):中端AI GPU性价比之王 RTX 4000 Ada、A4000、A5000
过去三年,AI的应用场景从科研实验室迅速走向产业落地。大语言模型(LLM)、图像生成、推荐算法、语音识别等技术几乎在所有行业都有探索。对中国企业而言,“出海”已经不再只是一个战略选项,而是业务生存与增长的必然选择。然而,出海过程中的一大技术难题是——算力成本。训练与推理都需要GPU,但顶级GPU(如H100、MI300X)的租用价格高昂,动辄数十美元/小时,并非所有企业都能承受。尤其是对于希望快速试错、迭代产品的中型企业,过度投入不仅会拖慢节奏,还可能让预算失衡。
2025-08-26 16:06:05
2226
4
原创 从零开始:用Qwen3-Coder在H100上构建你的智能编程工作流
凭借其令人印象深刻的上下文窗口、可通过 Qwen3-Coder-30B-A3B-Instruct 访问的较小变体,以及通义千问 Code CLI 的推出,该模型有望为开发者提供强大的智能体编程辅助。另外,Qwen3 系列的旗舰版本Qwen3-235B-A22B,需要多卡并行才能完整运行,例如2-3张H100或1-2张H200显卡,如果你需要运行期间版本,那么也可以使用 DigitalOcean 上的H200 GPU,这些GPU都支持按需实例或裸金属服务器,详情可咨询。
2025-08-25 11:35:22
1592
原创 DigitalOcean Gradient AI平台现已支持OpenAI gpt-oss
OpenAI 的首批开源 GPT 模型(200 亿和 1200 亿参数)现已登陆 Gradient AI 平台。此次发布让开发者在构建 AI 应用时拥有更高的灵活度和更多选择,无论是快速原型还是大规模生产级智能体,都能轻松上手。
2025-08-22 11:14:52
999
原创 DigitalOcean 开源 LangChain-Gradient:让AI应用从创意到生产一步到位
2025 年 8 月 19 日,DigitialOcean 宣布推出,这是一个全新的开源集成项目,将 LangChain 的强大功能带到了。LangChain 是一个广受欢迎的框架,用于构建由大语言模型(LLM)驱动的应用,具备链式提示、上下文管理及连接外部数据源等工具。借助该集成包,你可以把 LangChain 灵活的编排框架无缝接入 DigitalOcean 可扩展且面向开发者的 AI 基础设施,让构建和扩展 AI 驱动应用变得前所未有的简单。
2025-08-20 10:43:36
1291
原创 高性能AI推理与工作站GPU:DigitalOcean L40s、RTX 6000 Ada与A6000全解析
要做出明智的硬件选择,首先需要明确每款GPU的核心定位与最适合的应用场景。作为为数据中心优化而生的GPU,L40s主攻AI推理、大规模生成式AI模型的快速响应与多路视频处理。其架构专为提升推理吞吐量而设计,是追求极致性价比与效率的AI工作负载首选。这是一款真正的全能型工作站旗舰卡,它在AI推理与专业渲染之间实现了完美的平衡。无论是训练AI模型、进行复杂的3D渲染,还是运行CAD/CAE软件,都能提供顶级的性能与驱动优化支持。作为上一代Ampere架构的旗舰,A6000。
2025-08-19 13:30:03
3293
原创 提速AI开发:DigitalOcean Gradient AI平台上线三大实用新功能
使用 AI 构建应用应当快速、灵活且无烦恼。因此,DigitalOcean 全面升级了,新增一系列工具,助你快速交付更智能的智能体(agents),实时调试,并轻松接入你已有的知识源。无论你正在发布首个 AI 最小可行产品(MVP),还是扩展生产级工作负载,这些新工具都能帮助你构建真正可用于生产的 AI 应用。
2025-08-18 11:56:27
790
原创 DigitalOcean 云平台 H200 GPU 按需实例,正式上线 !
DigitalOcean 曾在 2025 年 2 月率先推出了基于 NVIDIA H200 的 GPU 裸金属服务器。DigitalOcean 不断地在扩展 AI/ML 产品阵容,现在。这是让全球开发者都能用上最简单、最易扩展的云平台的重要一步。对于奋战在 AI 前沿的开发者来说,合适的硬件决定成败。NVIDIA H200 专为生成式 AI 和高性能计算(HPC)中最繁重的任务而生。现在,你无需面对其他厂商的复杂流程和高昂成本,就能以更实惠的价格轻松获得这份算力。wp:heading。
2025-08-15 14:12:54
1932
原创 GPU 选型指南(一):AI 训练巅峰之选 H100、H200与MI300X/MI325X深度对比
过去几年间,以大型语言模型(LLM)和生成式 AI 为代表的新浪潮席卷全球,对算力基础设施提出了前所未有的严苛挑战。从 GPT-4 到 Llama 3,参数量级的飞跃不仅意味着计算复杂度的几何级数增长,更直接推动了对高性能 GPU 的需求井喷。然而,对于大多数创新型企业和科研团队而言,自建 GPU 服务器集群不仅面临高昂的初始投资、漫长的采购周期,还要承担复杂的运维和折旧成本。正因如此,像 DigitalOcean 这类按需、按小时付费的 GPU 云服务,正成为解决算力瓶颈的关键。
2025-08-13 17:30:17
3340
原创 GPT-5 现已上线 DigitalOcean Gradient™ AI 平台!
DigitalOcean Gradient AI 平台 是一个专为开发者和企业设计的平台,旨在简化机器学习(ML)模型的开发、训练、部署和管理流程。它将强大的基础设施与易于使用的工具相结合,让你能够专注于模型的创新,而不是底层基础设施的复杂性。该平台主要通过以下几个核心功能,帮助你更高效地进行AI开发:1、简化的开发和部署工作流Gradient 提供了集成化的环境,让你可以直接在平台上进行编码、训练和部署。它支持多种流行的ML框架。
2025-08-11 15:40:47
1868
原创 如何在NVIDIA H100 GPU上用Ollama以最高性能运行大语言模型
Ollama 提供了一种方式,可以从其庞大的语言模型库中下载大型语言模型,该库包括 Llama3.1、Mistral、Code Llama、Gemma 等。Ollama 将模型权重、配置和数据整合到一个由 Modelfile 指定的包中。Ollama 提供了一个灵活的平台,用于创建、导入和使用自定义或现有语言模型,非常适合创建聊天机器人、文本摘要等应用。它强调隐私,可与 Windows、macOS 和 Linux 无缝集成,并且免费使用。Ollama 还允许用户轻松地在本地部署模型。
2025-08-07 16:43:06
2305
原创 零基础 AI 开发劝退贴:没那金刚钻别懒那瓷器活
这个部分有点啰嗦。通过这个章节,有助于读者了解Vibe项目的难度,以便于判断自己能否Vibe xx。先展示成果,网址 www.aidroplet.com我:卓普云科技的市场负责人,文科背景出身。Zhai:Content Writer,本科计算机出身,但没写过一行代码。步骤耗时难点测试Prompt3天这是学习、测试的过程,要形成Prompt模版设计+开发7天难度最小,Prompt模版写好了,半体力活。形成项目综述1小时Figma编写,用于给Cursor阅读,以及项目维护。
2025-08-06 11:15:53
2687
原创 预算有限如何微调大语言模型?基于 DigitalOcean GPU Droplet 的实践与优化策略
微调大型语言模型不再需要烧钱或对高端企业级基础设施的苛刻要求。像 DigitalOcean GPU Droplet 这样经济实惠的云解决方案, 配备了强大的 H100 或 RTX 6000 显卡,让开发者和小型团队能够完全掌控并自信地部署 AI 模型。无论你是构建更智能的聊天机器人、领域专用助手,还是仅仅探索生成式 AI 的能力,工具都比以往任何时候都更容易获取。真正的挑战是:寻找经济实惠、可靠的 GPU 资源,而且没有复杂的计费或设置。
2025-08-04 08:30:47
1956
原创 DigitalOcean 一键模型部署,新增支持百度开源大模型ERNIE 4.5 21B
使用过DigitalOcean GPU Droplet 服务器的用户应该对我们的一键模型部署功能不陌生。DigitalOcean 的功能是 DO 为开发者和企业提供的一种便捷方式,用于快速部署和运行预训练的生成式 AI 模型,尤其是大型语言模型 (LLM)。这项功能是 DigitalOcean 与 Hugging Face 合作的成果,旨在简化 AI 模型的部署流程,让用户无需复杂的配置即可开始构建 AI 应用。功能支持多种开源大语言模型,包括LLama、DeepSeek等。
2025-07-24 17:10:01
2814
1
原创 DigitalOcean 云平台上线 AMD MI325X GPU Droplet 服务器
DigitalOcean 始终致力于为开发者和数字原生企业提供最强大、最易用的工具,以推动 AI 创新。继上个月推出 AMD Instinct™ MI300X GPU Droplets 云服务器后,我们激动地宣布下一代 AI 加速器——AMD Instinct™ MI325X 现已上线 DigitalOcean 云平台!
2025-07-21 16:02:31
2151
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅