Laravel Nova v3.32.0 正式版下载

在今 Laracon 2018 大会上,Taylor Otwell 公布了由 Laravel 团队开发的官方版后台管理系统 Laravel Nova。

Nova 高度可定制,这就为使用者提供了极大的灵活性,而且一旦在应用中配置使用 Nova,它会非常智能。

Nova 是一个 Composer 扩展包,你可以在已有的 Laravel 5.6 应用中安装它,这意味着你无需重新开始就可以将它集成到已有的项目中,听起来很赞, Nova 毕竟官方加持,值得期待。

Nova 前端是基于 Vue.js、Vue Router 和 Tailwind 实现的单页面应用,不仅好看,而且可定制。

在 Nova 其主要功能:

资源管理:对资源(Eloquent模型)的增删改查实现,包括中间表、关联关系的维护,同时还可以将模型与字段、动作、过滤器、透镜进行关联,Nova 具备基本的字段类型以及 Markdown、Trix、Code 和 Place 等自定义类型。
搜索:支持原生 SQL 查询,也支持通过 Laravel Scout 进行搜索。
动作:可作用于单个资源或多个资源的PHP任务,支持队列(表现在前端就是冻结、删除、激活等功能)
过滤器:编写自定义的过滤器方便用户快速筛选内容(比如已激活用户、已发布文章等)
透镜:自定义资源列表,你可以为一个资源定义不同视图的展示。透镜定义好并关联到某个资源后就可以在资源索引页使用。
指标:Nova 可以快速显示应用的自定义指标,在几秒钟内生成三种类型的图表:价值、趋势和分区,比如你可以查看在过去指定时间内的新增用户。定义好指标后,指标会显示在资源索引页。
授权:集成自带的策略机制实现权限管理。
更多使用细节请关注 Laravel Nova 官网。

该资源仅限学习使用,商用请支持正版。
jianshou.online/sell/1E5eZY3O

### 使用 Ollama 构建 RAG 向量数据库的方法 构建基于 OllamaRAG(检索增强生成)向量数据库涉及多个步骤,包括下载配置大模型、处理文档数据并将其嵌入向量空间,最后通过向量数据库实现高效的数据检索。以下是具体方法: #### 1. 下载运行 Ollama 大模型 Ollama 提供了一个简单的方式来管理运行本地的大语言模型 (LLM),可以通过以下命令完成模型的拉取启动: ```bash ollama pull llama2 ollama run llama2 --interactive ``` 这一步骤允许用户在本地环境中部署所需的 LLM 模型[^1]。 #### 2. 准备文档数据 为了使 RAG 工作流有效运作,需要准备一组结构化或非结构化的文档数据集。这些数据可以来自 PDF 文件、网页抓取或其他形式的文字材料。假设我们已经拥有一份名为 `document.txt` 的文件,则下一步是对该文本进行预处理。 #### 3. 切分文本为较小片段 由于大多数向量存储库对单个条目有长度限制,因此有必要先将原始文档切分成更小的部分。推荐使用 LangChain 中提供的工具来执行此操作: ```python from langchain.text_splitter import RecursiveCharacterTextSplitter text_splitter = RecursiveCharacterTextSplitter( chunk_size=1000, chunk_overlap=200 ) with open('document.txt', 'r') as file: document_text = file.read() texts = text_splitter.split_text(document_text) ``` 上述代码会把输入字符串按照指定大小拆解成若干子串,并保留一定重叠度以保持上下文连贯性[^4]。 #### 4. 创建嵌入函数 接下来定义一个用于计算每段文字特征表示的方法。这里选用 Hugging Face 上训练好的 Sentence Transformer 来生成高质量语义编码: ```python from langchain.embeddings import HuggingFaceEmbeddings embedding_function = HuggingFaceEmbeddings(model_name="all-MiniLM-L6-v2") ``` #### 5. 初始化 Chroma 数据库存储对象 利用之前创建的 embedding function 及分割得到的小节列表初始化 chroma vector store 实例: ```python from langchain.vectorstores import Chroma vectorstore = Chroma.from_texts(texts=texts, embedding=embedding_function, persist_directory="./chroma_db") ``` 这样就完成了整个 pipeline 的搭建过程——从加载基础模型到最终形成可供查询的知识图谱体系[^3]。 #### 6. 查询机制设计 当实际应用时,可通过如下方式调用已建立起来的服务端口来进行相似问句匹配或者信息抽取等工作负载下的性能测试评估活动。 ```python query_result = vectorstore.similarity_search(query="What is the capital of France?", k=2) print([doc.page_content for doc in query_result]) ``` 以上即为借助于 ollama 平台配合其他开源组件共同协作达成目标的整体思路概述[^2]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值