自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 资源 (1)
  • 收藏
  • 关注

原创 一机多卡的GPU版本pytorch安装

为了有效使用pytorch等深度学习工具,需要使用cuda工具。本文尝试在8张GeForce RTX 4090D的服务器上安装GPU版本的pytorch。在此之前,笔者只安装过单机单卡的cuda和torch,今天尝试安装了单机多卡的cuda和torch。简单记录一下。

2025-04-02 14:55:40 745

原创 (Windows平台)基于RAGFlow中agent的text2sql尝试

上篇文章中,笔者在Windows平台安装了docker和RAGFlow,建立了本地知识库。本文接下来要介绍如何使用 RAGFlow 实现 Text2SQL。Text2SQL利用自然语言处理(NLP)技术,将用户用日常语言提出的问题..

2025-03-28 09:34:39 881

原创 Windows安装docker并部署RAGFlow

在之前的博客中,笔者尝试利用ollama和anythingLLM建立了本地知识库,并在局域网内,提供接口给其他人使用。在本文中,笔者尝试利用另外一个工具RAGFlow,来搭建本地知识库。在大型语言模型(LLM)中,Embedding是指将离散的文本数据(如单词、短语或句子)转换为连续的数值向量的过程。​这些向量捕捉了文本的语义和语法特征。具体而言,Embedding将高维度的离散数据映射到低维度的连续向量空间中。​在这个空间中,语义相似的文本片段会被映射到彼此接近的位置。

2025-03-26 13:59:45 828

原创 基于Ollama和AnythingLLM的API调用(局域网内可用)

上篇博客中,尝试Windows本地部署Ollama+DeepSeek-R1-7b+AnythingLLM,成功实现了本地知识库的检索。实际使用中,往往将DeepSeek装在性能好的机器上,其他机器只需远程访问。因此,本文将讨论如何调用API。以上就是利用Ollama和AnythingLLM的API调用的内容。笔者在实际使用中,发现了一些问题:第一,sources会跟随问答传递,如果sources数据量很大,就麻烦了;第二,前端调用api时,对于同一个对话的上下文,需要进一步优化;

2025-03-06 13:39:23 3275 5

原创 Windows本地部署Ollama+DeepSeek-R1-7b+AnythingLLM及应用

语言模型的有效应用可以给企业带来巨大经济效益,本文就介绍了Windows平台的部署所需要的模型的安装步骤并构建本地知识库。以上就是关于地道老北京炸酱面的制作方法(并不是),本文仅仅简单介绍了AnythingLLM的使用,而如何提供 API 接口供其他设备使用,敬请期待下一篇博客。

2025-03-05 10:12:51 661 1

Flight Dynamics By Robert F. Stengel.pdf

飞机运动仿真

2021-04-27

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除