ubantu+kaldi安装填坑记录

本文分享了作者在Windows 10环境下尝试安装Kaldi所遇到的问题及解决方案,包括使用虚拟机和双系统的经验教训,强调了安装最新版Kaldi的重要性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目的:为了学习kaldi,安装kaldi运行的必要环境,下面先把我踩过的主要坑列举出来,然后在按照我的安装顺序写采坑记录

电脑环境:win10系统,显卡GT730M

1)坑1 :试图在虚拟机内安装kaldi

因为win10系统内有很多软件,资料,所以我就想着把win10保留下来,如果想在保留win10的基础上实现linux环境,有两种方法,一种是采用虚拟机,一种是采用双系统,为了方便,我就采用了虚拟机,但有个致命问题是,虚拟机内部的显卡是虚拟的,在cuda安装是会错

参考:https://blog.youkuaiyun.com/nothinglefttosay/article/details/45095125

           https://blog.youkuaiyun.com/zhuoyuezai/article/details/78751056

2)坑2:安装kaldi之前没有安装cuda等环境

kaldi安装之前除了要安装kaldi的必要安装包外,还有安装cuda和cudnn

3)坑3:安装的kaldi不是最新下载的

由于github的下载速度很慢,我就找了一个网盘内的资源,结果造成安装成功却运行错误,缺少部分文件

所以kaldi的安装还是要下载最新的kaldi,但github的下载可以提速。

git提速:https://www.jianshu.com/p/02841aec86f6

1.虚拟机内安装ubantu和安装kaldi(不可行的)

1)虚拟机安装

参考: https://blog.youkuaiyun.com/zhang_ling_yun/article/details/77918374

视频教学:https://ke.qq.com/webcourse/index.html#course_id=177867&term_id=100209216&taid=1003377374967499&vid=n1400hb1orj

2)ubantu下载

在官网进行下载 https://www.ubuntu.com/download

3)安装ubantu

下载后的.iso文件进行安装,安装时需要分配磁盘空间,内存,处理器核心数量等。

磁盘空间大小根据你的硬盘空间确定,内存数量一般推荐为计算机总内存的1/4,处理器核心数量就和电脑本身一致就行。

网络适配器选择桥接模式。

4)VMware Tools 安装

VMware Tools的安装是为了和windows实现文件的共享(kaldi文件的git下载速度很慢,有了文件共享就不用每次都下载(这是当时的想法,但每次安装都需要用最新的kaldi))

界面安装方法:https://blog.youkuaiyun.com/zxf1242652895/article/details/78203473

但在VMwareTools…tar.gz文件提取时会出现错误Extraction not performed You don't have the right permissions to extract archives in,改为命令方式安装没问题。

命令方式安装: https://blog.youkuaiyun.com/zz962/article/details/7706755

                          https://blog.youkuaiyun.com/iot_ai/article/details/61194517

5)kaldi安装

本想使用git命令下载了,但网速太慢,改为从windows(旧版的kaldi)内把文件拷贝到linux内。

拷贝命令:cp  share_file   target_file

首先将文件拷贝到共享文件夹内,在使用linux 命令将共享文件夹内部的文件复制到linux内(重点),如果直接在共享文件夹内直接编译安装会出现错误。

安装方式参考了https://blog.youkuaiyun.com/amds123/article/details/70313780

但在make时出现了错误,改为sudo make

安装失败

在安装kaldi之前需要先安装cuda和显卡驱动

在虚拟机内的显卡和主机的显卡是不一致的,也就是说虚拟机内部的显卡是虚拟出来的,当你安装虚拟机驱动后会出现错误。解决办法就是安装双系统,而不是虚拟机(搞了一天的教训,泪)

2.安装双系统win+linux(ubuntu)和安装kaldi(可行)

1)双系统的安装

安装参考: https://blog.youkuaiyun.com/s717597589/article/details/79117112/

               https://blog.youkuaiyun.com/davidhuang2017/article/details/70258173

               https://blog.youkuaiyun.com/yishengrusi/article/details/53976226

错误:使用easybcd 设置索引后,进入不了linux系统,错误为

错误原因:原因是找不到linux的索引,我有两块磁盘,win在第0块磁盘,ubuntu在第1块磁盘,第一块的磁盘索引导到第0块时出现错误,最后将ubuntu的索引文件/boot放到了第0块磁盘内部。

2)cuda和cudnn的安装

参考:https://blog.youkuaiyun.com/u010837794/article/details/63251725

        :https://blog.youkuaiyun.com/dihuanlai9093/article/details/79253963/

3)kaldi 安装

参考:https://blog.youkuaiyun.com/amds123/article/details/70313780

### 安装与配置 Ollama、DeepSeek 和 RAGFlow 的方法 #### 1. 安装 Ollama 要在 Ubuntu 上安装 Ollama,可以按照官方推荐的方法执行以下命令来完成自动化脚本安装: ```bash curl -fsSL https://ollama.com/install.sh | sh ``` 此命令会下载并运行安装脚本来设置 Ollama 环境[^1]。 安装完成后,可以通过启动服务验证其正常工作状态: ```bash ollama start ``` 如果一切顺利,Ollama 将会在本地端口 `http://localhost:11434` 提供服务。 --- #### 2. 配置 DeepSeek 模型 DeepSeek 是一种先进的大语言模型系列,支持通过 Ollama 进行加载和管理。要使用 DeepSeek 模型,需先确认已成功安装 Ollama 并将其更新到最新版本。 以下是加载 DeepSeek 模型的具体操作流程: - 使用以下命令拉取 DeepSeek 模型: ```bash ollama pull deepseek/medium ``` 上述命令中的 `deepseek/medium` 表示从中等规模的 DeepSeek 模型开始测试。如果有更高性能需求,可以选择其他变体如 `deepseek/large` 或者 `deepseek/xlarge`。 一旦模型被成功拉取下来,在后续调用 API 接口中即可指定该模型作为默认选项。 --- #### 3. 实现 RAGFlow 流程集成 RAG (Retrieval-Augmented Generation) Flow 结合检索增强技术优化生成质量。为了实现这一功能链路,通常需要构建如下几个模块组件: - **向量数据库**: 存储文档数据及其对应的嵌入表示形式。 - **查询解析器**: 负责理解用户输入并将之转化为结构化请求。 - **LLM 响应处理器**: 利用预训练好的 LLM 如 DeepSeek 来生成最终回复内容。 具体实践步骤可能涉及以下方面: - 构建索引库:选择合适的开源工具比如 Milvus, Weaviate 或 Pinecone 创建高效的相似度匹配引擎; - 数据处理管道设计:定义清晰的数据流路径以便于维护扩展; - 应用层封装接口开发:对外暴露 RESTful Web Service 方便前端或其他系统调用; 这些部分可以根据实际项目情况灵活调整定制。 --- ### 示例代码片段展示 下面给出一段简单的 Python 示例程序演示如何基于 FastAPI 设置基本的服务框架并与 Ollama 协同运作: ```python from fastapi import FastAPI import requests app = FastAPI() @app.post("/generate/") async def generate_text(prompt: str): url = "http://localhost:11434" payload = {"prompt": prompt, "model": "deepseek"} response = requests.post(f"{url}/api/generate", json=payload).json() return {"result": response["response"]} ``` 以上代码创建了一个小型 HTTP Server ,允许外部客户端提交自然语言问题并通过内部调用 Ollama 获取答案返回给用户。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值