使用DEEPSEEK搭建知识库代替ACE

ACE是美国认证的技术作者.从某种程度来说比一般人更了解某个数据库的知识.这一点AI知识库就比ACE更加全面.

如果说需要从ACE获得数据库运维调优的经验的话,感觉性价比很低.大多数ACE忙于考证,学会各个不同的数据库安装,高可用等. 实际生产经验不多!

比如说DBA总监来的,不知道可以在WEBLOGIC一些DB设置?

比如说陆金所试用期没有过的所谓首席,谈及MYSQL RR隔离级别下无索引更新是上表锁.

比如说某个MYSQL ACE 居然把BINLOG_CACHE_SIZE归在全局内存里.

从某种程度来说ACE 就是把各种数据库知识变成某篇文章.并不能领会该参数本质原理.

所以ACE只是小镇做题高手而已,然后喜欢在聚光灯下砍砍而谈,指点江山.畅谈DBA职业人生.

AI知识库就彻底淘汰ACE把知识整理成文章的能力.ACE的影响力也会随时间而减弱!

使用腾讯的IMA

腾讯 ima.copilot 的知识库是其核心功能之一,以下是关于它的详细介绍1:

  • 功能定位

    :腾讯 ima.copilot(简称 ima)是腾讯于 2024 年 10 月推出的 AI 智能工作台,以知识库为核心,整合 “搜、读、写” 三大功能,致力于成为用户的 “第二大脑”。通过 RAG(检索增强生成)技术,将用户个人知识库与全网信息结合,为用户提供精准的 AI 问答、文档解析、内容创作等服务。

  • 知识来源与整合
    • 本地文件

      :支持上传 PDF、Doc 等本地文件,自动生成摘要、思维导图,方便用户将本地资料纳入知识库进行管理和利用。

    • 网页链接

      :用户导入网页链接后,ima 会自动解析网页内容并生成概要,帮助用户快速获取网页关键信息并存储到知识库。

    • 微信生态内容

      :整合微信公众号、视频号等腾讯生态内容,接入超 500 万篇公众号优质文章,用户可将感兴趣的公众号文章等内容添加到知识库,极大地丰富了知识来源。

  • 知识库管理
    • 个人与共享知识库

      :用户可创建私密的个人知识库,也可通过 “共享知识库” 邀请团队协作,最多 5 名管理员。2025 年 3 月 7 日,新增 “知识库广场” 模块,单个共享知识库的成员人数上限提高至 100 万,知识库创作者可在 ima 知识号入口申请创建账号,发布知识库。

    • 动态更新

      :定期添加新资料,如公众号文章、会议记录等,利用 AI 生成问答结果并存入知识库,使知识库内容不断丰富和更新,保持时效性和实用性。

    • 分类与检索

      :配有标签和分类系统,通过多维度标签检索和内容分类,用户可以灵活管理知识库内容,快速定位所需信息。

  • 多平台支持

    :覆盖 Windows、Mac 客户端及微信小程序(“ima 知识库”),实现跨设备协同。微信小程序支持实时同步 PC 端知识库,并可导入聊天文件、相册图片,方便用户进行碎片化知识管理。

  • 应用场景
    • 智能搜索与问答

      :支持 “全网搜索” 与 “基于知识库” 两种模式,“基于知识库” 模式可调用用户私有知识库数据,为用户提供更具针对性和专业性的答案。例如,腾讯医典 “急救知识库” 基于专业内容提供 7*24 小时 AI 急救问答。

    • 智能写作

      :提供论文、文案模板,支持扩写、缩写及 AI 辅助创作,参考知识库内容生成个性化文本,帮助用户提高写作效率和质量。

    • 垂类应用

      :可创建垂类知识库,如 “考研资料库”“法律案例库” 等,并通过小程序分享给特定群体,满足不同领域和用户群体的个性化需求。

据说IMA有32GB的空间,

下面折腾了本地部署知识库Cherry Studio感觉不行

知识库大模型

  1 下载模型

[shark@sharkdb=>AI_OLLAMA]$ollama pull bge-m3

  2 列出可用模型

[shark@sharkdb=>AI_OLLAMA]$ollama listNAME                ID              SIZE      MODIFIED       bge-m3:latest       790764642607    1.2 GB    32 seconds ago    deepseek-r1:1.5b    a42b25d8c10a    1.1 GB    4 weeks ago   

3 运行推理模型1.5B

ollama run deepseek-r1:1.5b

  是否要运行推理模型暂不考究!

    Ollama 常用命令:

ollama serve##启动后台服务,启用API访问(默认端口11434)ollama stop ##停止运行的模型ollama show <模型名> ##显示模型信息ollama run <模型名>          ##运行指定模型(如ollama run llama2),进入交互对话模式ollama list                 ##列出本地已下载的模型ollama pull <模型名>##下载模型(如ollama pull mistral),需联网ollama rm <模型名>##删除本地模型(如ollama rm llama2)ollama create <自定义名>##基于Modelfile创建自定义模型(需编写Modelfile)ollama push <用户名/模型名>

4 关于本地部署DEEPSEEK 

  DeepSeek本地部署-虚拟机LINUX7

5 下载知识库工具 

Cherry Studio 的下载地址是https://cherry-ai.com/download ,目前最新版是 1.0.4。点立即下载的话会跳转 github 下载地址

6 安装

必须是WIN10系统以上安装,如果你是WIN7,可以用VMARE 15开个虚拟机 4GB就行

7 运行界面

图片

默认下模型服务开启了硅基流动,我们就开启OLLAMA配置,配置下IP地址然后点击绿色按钮"管理"

图片

把两个模型绿色加号键按一下

8 然后右上角的第一个,助手 就是推理对话框,就是正常问答DPSK

图片

更换下模型就行,我们就可以使用DPSK推理功能

图片

1.5B的DPSK有点白痴,当然不是今天的重点

9 知识库

图片

嵌入模型就是我们的知识库模型,点击确定后如下图

图片

10 上传PDF

图片

11 处理PDF

图片

可以在知识库界面底下放大镜按钮查询知识库的内容,不过跟助理一样愚蠢得很! 

虽然在助理界面要点击下面小书的按钮,从知识库获取.  所以这个产品不行.虽然优快云上很多介绍用该产品做个人知识库,都是用的付费的硅基流的知识库模型.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值