大模型
文章平均质量分 62
具身小站
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
从零本地部署使用Qwen3-coder进行编程
【代码】从零本地部署使用Qwen3-coder进行编程。原创 2025-07-25 22:35:46 · 1281 阅读 · 0 评论 -
FunAsr默认语音识别模型体验对比(Paraformer)
Paraformer模型结构如上图所示,由 Encoder、Predictor、Sampler、Decoder 与 Loss function 五部分组成。Paraformer是达摩院语音团队提出的一种高效的非自回归端到端语音识别框架,项目为Paraformer中文通用语音识别模型,采用工业级数万小时的标注音频进行模型训练,保证了模型的通用识别效果。模型可以被应用于语音输入法、语音导航、智能会议纪要等场景。原创 2025-05-27 10:25:13 · 2246 阅读 · 0 评论 -
从零实现本地语音识别(FunASR)
FunASR 是达摩院开源的综合性语音处理工具包,提供语音识别(ASR)、语音活动检测(VAD)、标点恢复(PUNC)等全流程功能,支持多种主流模型(如 Paraformer、Whisper、SenseVoice)的推理、微调和部署。原创 2025-05-27 09:20:18 · 2079 阅读 · 0 评论 -
从零实现wss通信示例(WebSocket SSL)
客户端和服务端代码框架跟上一篇一致,仅增加了ssl的证书部分用于加密通信,明文通信(ws协议)见上一篇。原创 2025-05-26 08:46:20 · 1251 阅读 · 0 评论 -
语音控制车辆运动功能集成(详细教程)
【代码】语音控制车辆运动功能集成教程。原创 2025-05-23 08:57:36 · 788 阅读 · 0 评论 -
语音控制设备的仿真/语音调试
【代码】语音控制设备的仿真/语音调试。原创 2025-05-22 14:58:41 · 381 阅读 · 0 评论 -
语音对话工作流程说明
对话机器人,按照下面在设备端部署模型的方式实现,只需要具备基本的语音滤波处理及功放播放即可,那么设备的配置要求就低了。原创 2025-05-21 09:59:49 · 384 阅读 · 0 评论 -
Python文字转语音TTS库示例(edge-tts)
开源库,使用websocket跟微软在线模型。原创 2025-05-12 12:08:44 · 1522 阅读 · 0 评论 -
机器人语音对话模块
【代码】机器人语音对话模块。原创 2025-05-11 08:15:00 · 278 阅读 · 0 评论 -
从零实现Agent智能体配置使用(Ragflow)
当前模板默认带了四类问题:搜索产品信息、客户抱怨、闲聊、咨询,分别配置大模型,尤其关于产品信息的配置,除了大模型还需要配置对应知识库。原创 2025-04-10 23:25:19 · 2019 阅读 · 0 评论 -
本地大模型Connection Refuse解决方案(已验证)
在RAGFlow配置文件(如config.yaml)中,确保Ollama的访问地址为宿主机IP(如http://<宿主机IP>:11434),而非127.0.0.1或localhost,如果Docker设置了http_proxy或https_proxy,可能导致容器无法访问宿主机服务,删除代理配置后重启Docker。修改系统环境变量或Ollama服务配置文件,添加OLLAMA_HOST=0.0.0.0,然后重启服务。确保宿主机的防火墙或云服务器安全组允许外部访问11434端口。若返回模型列表,则配置成功。原创 2025-04-08 08:54:07 · 819 阅读 · 0 评论 -
本地大模型构建个人知识库(Ragflow)
本地Deepseek大模型构建个人知识库(Ragflow)原创 2025-04-07 22:27:38 · 559 阅读 · 0 评论 -
从零实现本地大模型RAG部署
RAG(Retrieval-Augmented Generation)即检索增强生成,是一种结合信息检索与大型语言模型(大模型)的技术。RAGFlow是一个基于深度文档理解的开源RAG引擎。它为任何规模的企业提供了一个简化的RAG工作流程,结合LLM(大型语言模型)提供真实的问答功能,并得到各种复杂格式数据的充分引用。:使用向量数据库和近似最近邻(ANN)算法快速定位与查询相关的文本片段。:大模型 基于融合后的上下文生成最终答案,减少“幻觉”现象。:将检索到的信息处理后与原始查询结合,形成扩展的上下文。原创 2025-04-06 23:30:25 · 877 阅读 · 0 评论 -
DeepSeek本地部署(Ollama)
根据自己电脑配置和应用需求选择不同模型,配置不足会导致运行时候卡顿。原创 2025-04-06 18:28:35 · 689 阅读 · 0 评论
分享