
人工智能
文章平均质量分 83
jane_xing
海阔凭鱼跃,天高任鸟飞
展开
-
操作指南:vLLM 部署开源大语言模型(LLM)
vLLM 是一个专为高效部署大语言模型(LLM)设计的开源推理框架,其核心优势在于显存优化、高吞吐量及云原生支持。安装 vLLM或从源码安装最新功能:Docker 部署:使用官方镜像快速启动服务,适用于容器化环境:依赖环境从 Hugging Face 加载模型vLLM 支持直接加载 Hugging Face 托管的模型,例如:若需加速国内下载,可设置镜像源:本地模型路径若模型已下载至本地,可直接指定路径启动:三、服务启动与 API 调用启动 OpenAI 兼容服务原创 2025-04-25 16:58:36 · 614 阅读 · 0 评论 -
【翻译】OmniSQL——大规模生成高质量文本转SQL数据
我们提出了一套自动化、可扩展的文本转SQL数据合成框架(如下图所示),并基于该框架发布了首个百万量级文本转SQL数据集SynSQL-2.5M。该数据集包含超过250万条多样化的高质量数据样本,覆盖16,000余个跨领域数据库。在SynSQL-2.5M基础上,我们推出了OmniSQL系列模型(7B/14B/32B三个版本)。微调过程中还融合了Spider和BIRD提供的人类标注高质量数据。论文链接: https://arxiv.org/abs/2503.02240。原创 2025-03-25 11:04:51 · 1068 阅读 · 0 评论 -
Dify:开箱即用的AI Agent工厂——从新手到专家的全景指南
示例:股票查询插件description = "查询实时股票信息"# 调用第三方APIreturn {原创 2025-02-26 17:30:32 · 1776 阅读 · 0 评论 -
Gradio:零代码构建AI服务的魔法工具箱
""",**kwargs从Weeks到Hours:开发周期数量级缩短从专家到大众:非前端工程师也能构建专业界面从演示到生产:支持从小型Demo到企业级应用行动指南尝试官方教程(30分钟入门)将现有模型转换为Web服务(1小时实践)当AI能力可以像搭积木一样快速组合,我们正站在人工智能普惠化的关键转折点。Gradio这把打开AI服务之门的钥匙,你准备好使用它了吗?原创 2025-02-25 17:23:50 · 777 阅读 · 0 评论 -
一篇文章读懂AI Agent
当大模型还在回答问题时,新一代AI Agent已经能自主订机票、管理股票组合、运营跨境电商店铺——这不是科幻电影,而是正在发生的技术革命。本文将深入解析AI Agent的技术本质与商业应用。原创 2025-02-21 16:23:19 · 938 阅读 · 0 评论 -
一篇文章读懂多模态大模型
想象一个只会做数学题的天才少年,遇到语文作文就束手无策——这就是传统AI模型的真实写照。多模态大模型(Multimodal Large Model)的诞生,打破了这种"偏科"局面,让AI真正成为能看、会听、懂语言的"全能学霸"。技术定义:多模态大模型是指能够同时处理和理解多种数据模态(文本、图像、语音、视频等)的通用人工智能模型,通过深度学习架构实现跨模态信息的对齐、融合与推理。典型代表包括GPT-4V、Google Gemini、Flamingo等。核心突破视觉理解:准确识别图像中的物体、场景、文字。原创 2025-02-20 18:07:22 · 790 阅读 · 0 评论 -
一篇文章读懂大模型类型:LLM、TTS、Text-Embedding、Rerank
以下是的定义、核心理解及应用场景的详细说明,帮助你在实际项目中合理选择和应用。原创 2025-02-19 14:26:44 · 2366 阅读 · 0 评论 -
解决CUDA error: no kernel image is availabel for execution on the device
有一种可能,不需要升级cuda版本,直接更新torch版本就可以解决问题。时间原因,不做验证了。原创 2024-07-12 16:46:50 · 1386 阅读 · 0 评论 -
模型评价标准
为了了解模型的泛化能力,即判断模型的好坏,我们需要用某个指标来衡量,有了评价指标,就可以对比不同模型的优劣,对模型进行针对性地调参优化。随着机器学习在不同领域中的应用,其评价方式需要和实际业务相结合,通过确定目标来定量设计评价标准。以下总结出不同类别模型的通用评价指标。原创 2023-01-18 14:00:37 · 1954 阅读 · 0 评论 -
将算法推理函数封装成Restful API
如果要快速构建一个算法应用,便于用户在线体验算法推理效果,采用gradio是个不错的选择。然而,要集成到业务程序中,比如要支持java等语言去调用(发送请求,获取到推理结果),此时便需要将算法推理函数封装成Restful API。这里,简单总结下快速封装Restful API的步骤。业务端要做一个演示程序,里面包含一个目标检测算法,算法人员如何将自己跑在GPU服务器上的算法程序交付给业务人员呢?将算法推理函数封装成Restful API;原创 2024-02-27 16:21:24 · 800 阅读 · 0 评论 -
多个gradio服务实现负载均衡
于是,增加了一块GPU,单个服务用两块GPU,测试后发现仅仅是显存分在两块卡上了,速度并未提升。要实现直接跳转到被分发到的服务的 IP 地址,你可以修改 Nginx 配置,使其将被分发到的服务的 IP 地址包含在 HTTP 响应头中。然后,在客户端收到响应后,可以从响应头中提取被分发到的服务的 IP 地址,并将用户重定向到该地址。最后,用户访问入口,在已有的一个前端页面上建个图标,点击图标触发nginx服务地址请求,用fetch API获取到响应头中被分发到的服务的地址,跳转过去即可。原创 2024-04-15 09:41:33 · 995 阅读 · 0 评论