
AI
文章平均质量分 69
13东月关
个人博客 https://blog.channelcz.top/
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【智能体】AutoPlan开源多智能体小玩具,欢迎来玩
这是一个多智能体开源个人项目,用户可以通过简单的步骤快速开始使用。首先,需要克隆项目代码库,然后安装环境依赖。接着,配置.env文件,填入API_KEY和BASE_URL信息。最后,通过main.py文件启动项目,即可体验和进行二次开发。开发者鼓励用户为项目点个星星以示支持。原创 2025-05-18 17:51:07 · 136 阅读 · 0 评论 -
【大模型开源项目】FastAPI结合vLLM,开发适配openai-api的接口,轻量级易扩展
(这里只能说是vLLM牛,对显存的拿捏十分精准)比如在上面的配置下,Qwen/Qwen2.5-7B-Instruct模型有两个实例,并且两个实例的权重优先级(devices中的weight参数)分别为1和2,那么最终请求会按照1:2的比例分配到两个实例上。如下所示,首先需要确保的是每一个模型实例的engine_args参数的model参数,这是模型权重的位置,不要填错,你可以从huggingface上下载,然后填权重文件位置。这里测试也是测了vLLM性能,和我的框架关系不大,只能说我没有拖后腿吧QVQ。原创 2025-04-10 22:51:12 · 1059 阅读 · 0 评论 -
【大模型】Qwen2.5-Omni 技术报告解读
下图为Omni的应用场景概述图,主要思想就是让多模态数据(文字、图片、视频、音频)输入模型,然后通过文字大模型(Thinker)进行理解,然后配合语音大模型(Talker)进行语音输出。原创 2025-03-29 18:14:13 · 984 阅读 · 0 评论 -
【深度学习】Transformer
Transformer作为编码器-解码器架构的一个实例。正如所见到的,Transformer是由编码器和解码器组成的。与基于Bahdanau注意力实现的序列到序列的模型相比,Transformer的编码器和解码器是基于自注意力的模块叠加而成的,源(输入)序列和目标(输出)序列的嵌入(embedding)表示将加上位置编码(positional encoding),再分别输入到编码器和解码器中。链接无法跳转,想看请移步。原创 2024-11-24 22:19:10 · 606 阅读 · 0 评论 -
[AI]sklearn1.5版本以上使用多分类器时,拿不到coef和intercept的解决办法
由于sklearn在1.5版本后弃用LogisticRegression(multi_class=“ovr”)的写法,换用如下写法,本人在使用时拿不到线性基分类器(本示例中为LogisticRegression)的coef_以及intercept_原创 2024-09-15 11:04:49 · 199 阅读 · 0 评论