闻达:5分钟快速上手的大规模语言模型调用平台

闻达:5分钟快速上手的大规模语言模型调用平台

【免费下载链接】wenda 闻达:一个LLM调用平台。目标为针对特定环境的高效内容生成,同时考虑个人和中小企业的计算资源局限性,以及知识安全和私密性问题 【免费下载链接】wenda 项目地址: https://gitcode.com/gh_mirrors/we/wenda

闻达是一个专为个人和中小企业设计的大规模语言模型调用平台,在考虑计算资源局限性的同时,兼顾知识安全和私密性需求。这个开源平台让普通用户也能轻松驾驭各种强大的语言模型,实现高效的内容生成和智能对话。

核心能力:一站式AI模型管理

闻达平台集成了三大核心能力,为用户提供完整的AI应用解决方案:

多模型支持与灵活切换

平台支持离线部署的chatGLM-6B/chatGLM2-6B、chatRWKV、llama系列、moss、baichuan、Aquila-7B、InternLM等主流模型,同时也支持在线API访问openai api和chatGLM-130b api。无论您是否有高性能显卡,都能找到合适的运行方案。

智能知识库集成

闻达支持对接本地离线向量库、本地搜索引擎和在线搜索引擎,构建强大的知识库支持系统。通过语义匹配和智能检索,确保模型回答的准确性和专业性。

闻达设置界面 闻达平台设置界面展示大规模语言模型调用配置选项

自动化脚本扩展

通过JavaScript脚本开发,用户可以为平台附加各种自动化功能,包括自定义对话流程、访问外部API、在线切换LoRA模型等,实现个性化需求。

特色功能:让AI更贴近实际应用

零门槛图块化编程

通过autos/block_programming.js实现的图块化编程功能,让没有任何编程基础的用户也能通过简单拖拽实现自动化功能,真正做到了"猫猫也会的AI编程"。

纯浏览器端人脸识别

autos/face-recognition.js提供了纯浏览器端的人脸检测功能,通过识别嘴巴开合来控制语音输入,提升交互体验。

多平台机器人集成

平台支持QQ机器人功能,用户可以在社交平台上便捷使用闻达的各项能力,拓展了应用场景。

闻达知识库界面 闻达知识库功能界面,支持多种知识检索模式

快速上手指南

第一步:获取项目代码

git clone https://gitcode.com/gh_mirrors/we/wenda

第二步:安装依赖环境

根据您的需求安装相应的依赖库:

  • 通用依赖:pip install -r requirements/requirements.txt
  • 特定模型依赖:参考requirements目录下的对应文件

第三步:配置模型参数

example.config.yml重命名为config.yml,并根据您的模型下载位置等信息进行相应配置。

第四步:启动对应模型

根据您选择的模型,运行相应的启动脚本,如run_GLM6B.bat启动GLM6B模型。

闻达Web界面 闻达Web用户界面,提供直观的操作体验

应用场景实例

智能内容创作

利用autos/0-write_article.js脚本,用户可以根据题目或提纲快速生成高质量的论文和文章。

企业知识管理

通过知识库功能,企业可以构建专属的知识体系,员工可以快速获取准确的业务信息和解决方案。

教育培训助手

平台可以作为智能教学助手,为学生提供个性化的学习支持和答疑服务。

闻达平台通过简单易用的界面和强大的功能扩展,让普通用户也能享受到大规模语言模型带来的便利,是个人和小型团队理想的AI助手解决方案。

【免费下载链接】wenda 闻达:一个LLM调用平台。目标为针对特定环境的高效内容生成,同时考虑个人和中小企业的计算资源局限性,以及知识安全和私密性问题 【免费下载链接】wenda 项目地址: https://gitcode.com/gh_mirrors/we/wenda

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值