
人工智能高级阶段
文章平均质量分 93
此栏目专门收藏高级NLP模型,LLM和ChatGPT。
无水先生
擅长数学,能熟练应用泛函分析、统计学、随机过程、逼近论、微分几何、非欧几何(双曲、共形)等数学理论,有数学建模能力。从事图像处理二十年以上,从事人工智能行业10年以上;在船舶、通信、铁路、教育等行业开发软件产品。
展开
-
构建一个视觉Transformer 模型
基于自我注意的 transformer 模型由 Vaswani 等人在 2017 年的论文 Attention Is All You Need 中首次提出,并已广泛用于自然语言处理。transformer 模型是 OpenAI 用于创建 ChatGPT 的模型。Transformer 不仅适用于文本,也适用于图像,基本上也适用于任何顺序数据。本文将介绍视觉transformer 模型如何构建。原创 2025-02-27 10:24:25 · 887 阅读 · 0 评论 -
Magentic-One、AutoGen、LangGraph、CrewAI 或 OpenAI Swarm:哪种多 AI 代理框架最好?
生成式人工智能中的多人工智能代理主题正在升温,各大科技巨头都围绕它发布了一些框架。但是该选择哪种多人工智能代理框架呢?他们实在太多了!!随着 OpenAI 发布 Swarm 和微软的 Magentic-One,这个领域变得非常混乱。因此,为了消除任何疑问,我将尝试解释每个框架的主要功能、优缺点,让您决定哪个最适合您。我们将讨论原创 2025-01-07 23:25:59 · 1308 阅读 · 0 评论 -
在大型语言模型LLM中使用私有数据
随着 2023 年大型语言模型的大规模兴起,许多“基于对话”的服务应运而生,使用户能够通过自然对话与数据和其他产品进行交互。我们现在处于一个 LLM 改变我们与各种数据和信息交互方式的时代。筛选无尽的搜索结果或解读复杂的用户界面的日子已经一去不复返了;现在,您只需要自然语言就可以开始探索。原创 2025-01-05 12:24:27 · 1581 阅读 · 0 评论 -
Scikit-LLM:Scikit-Learn 与大型语言模型的结合
作为 Python 和 ML 的初学者,我经常依赖 scikit-learn 完成几乎所有项目。它的简单性和多功能性使实现各种算法成为一种迷人的体验。现在,令人兴奋的是,scikit-learn 通过“Scikit-LLM”引入了 LLM 功能,从而得到了进一步发展。这种集成将 GPT、Vertex、Gemma、Mistral、Llama 等大型语言模型的强大功能带入了 scikit-learn 生态系统,使其成为机器学习爱好者和专业人士更强大的工具。根据该库的文档,“Scikit-LLM 允许您将强大的语原创 2024-12-01 03:28:32 · 793 阅读 · 0 评论 -
长短期记忆网络 (LSTM) 简介
本文对 LSTM 进行了简要介绍。我们先看一下上下文。我们将介绍经典的递归神经网络,以及为什么训练它们是有问题的。随后,Hochreiter 和 Schmidhuber 在他们 1997 年的工作中介绍了长短期记忆网络。我们还将直观地介绍为什么 LSTM 解决了机器学习中传统上存在的循环段梯度消失问题。原创 2024-11-29 22:39:10 · 2498 阅读 · 0 评论 -
使用 GenAI 实现 4 种被动收入来源
因此,如果您是一名想赚点零花钱的学生,或是一名想要谋生的家庭主妇,甚至是一名有兴趣开始兼职的专业人士,那么本文就是为您准备的。今天,我将指导您使用 GenAI 建立被动收入流的 4 种方法。原创 2024-11-14 20:26:28 · 1033 阅读 · 0 评论 -
在组织中整合 LLM 代理的分步指南
大型语言模型 (LLM)(例如 OpenAI 的 GPT 和 Anthropic 的 Claude)的兴起,导致企业广泛采用生成式人工智能 (GenAI) 产品。各个行业的组织现在都在利用 GenAI 来简化流程并提高员工效率。原创 2024-11-14 20:15:22 · 647 阅读 · 0 评论 -
AI 聊天机器人的兴起:GPT-3 和 BERT 如何重新定义对话体验
在本文中,我们将探讨这些尖端语言模型如何彻底改变我们与 AI 驱动的聊天机器人的通信方式。我们将深入探讨 GPT-3 和 BERT 的主要特性和功能,并研究它们如何改变对话式 AI 的格局。原创 2024-10-28 21:20:54 · 1390 阅读 · 0 评论 -
机器学习中的嵌入是什么?
嵌入是真实世界对象的数字表示,机器学习(ML)和人工智能(AI)系统利用它来像人类一样理解复杂的知识领域。例如,计算算法了解 2 和 3 之间的差为 1,这表明与 2 和 100 相比,2 和 3 关系更为密切。但是,真实世界数据包含更复杂的关系。例如,鸟巢和狮穴是相似对,而昼夜是相反词。嵌入将真实世界的对象转换成复杂的数学表示,以捕捉真实世界数据之间的固有属性和关系。整个过程是自动化的,人工智能系统会在训练期间自我创建嵌入,并根据需要使用它们来完成新任务。原创 2024-10-27 17:07:20 · 1926 阅读 · 0 评论 -
在LLM中,如何选择嵌入模型?
我们大多数人都在使用 OpenAI 的 Ada 002 进行文本嵌入。原因是 OpenAl 构建了一个很好的嵌入模型,它比其他任何人都早得多就易于使用。然而,这是很久以前的事了。看一下 MTEB 排行榜就知道,Ada 远非嵌入文本的最佳选择。原创 2024-10-27 16:57:02 · 2914 阅读 · 0 评论 -
什么是命名实体识别?
命名实体识别 (NER) 也称为实体分块或实体提取,是自然语言处理 (NLP) 的一个组件,用于识别文本正文中的预定义对象类别。这些类别可以包括但不限于个人姓名、组织、地点、时间表达、数量、医疗代码、货币价值和百分比等。从本质上讲,NER 是获取一串文本(即句子、段落或整个文档)并识别和分类引用每个类别的实体的过程。原创 2024-10-26 17:58:54 · 1902 阅读 · 0 评论 -
注意力机制 — 它是什么以及它是如何工作的
注意力机制是深度学习领域的一个突破。它们帮助模型专注于数据的重要部分,并提高语言处理和计算机视觉等任务的理解和性能。这篇文章将深入探讨深度学习中注意力的基础知识,并展示其背后的主要思想。原创 2024-08-15 14:26:51 · 2170 阅读 · 0 评论 -
使用 Pytorch 从头开始构建 Transformer
在今天的博客中,我们将了解 Transformer 的架构。Transformer 通过引入一种通过注意力机制捕获序列内依赖关系的新机制,彻底改变了自然语言处理 (NLP) 领域。让我们分解一下,使用 PyTorch 从头开始实现它。原创 2024-08-06 09:00:08 · 2936 阅读 · 0 评论 -
5 种技术,可用于系统中的大数据模型
以下是本文重要观点的摘要。阅读它以获取更多详细信息/获取原始源链接。很多 AI 人都想构建像 GPT 4 这样的大型 AI 模型。让我们来谈谈一些技术,这些技术可以让您在不崩溃的情况下扩展您的模型。这些技术将使您能够扩展 AI 模型,在不显着增加成本的情况下提高系统的表达能力原创 2024-06-05 10:32:24 · 2908 阅读 · 1 评论 -
大型语言模型的工作原理(LLM:从零学起)
这是我们谈论LLM系列的第二篇文章。在本文中,我们旨在为大型语言模型 (LLM) 的运行方式提供易于理解的解释。原创 2024-06-04 08:17:42 · 2954 阅读 · 0 评论 -
如何使用 DANN 改进神经网络
由于其多功能性,神经网络是大多数现代机器学习管道的主要内容。他们处理非结构化数据的能力是一种祝福,因为它让我们能够部分地——部分地——在这里发挥重要作用——用计算规模(更便宜、更容易获得)取代领域洞察力(昂贵且难以获得)。原创 2024-06-03 01:04:17 · 4090 阅读 · 2 评论 -
语言模型的校准技术:增强概率评估
语言模型,尤其是大型语言模型 (LLM),凭借其理解和生成类人语言的能力,彻底改变了人工智能领域。这些模型不仅能够在零样本设置下或通过定制提示执行各种任务,而且它们的灵活性和多样性也使它们在多个领域中非常有用。原创 2024-06-02 22:19:25 · 2923 阅读 · 1 评论 -
通过非欧几何体改变 AI 嵌入
这是一篇大咖的论文阅读,是Apple 首席工程师Manny Ko分享的精彩论文。这篇文章很大程度上是许多有趣的对话和来回的综合。对于LLM之所以引进复数嵌入,以及如何嵌入有清晰全面的理解,堪称里程碑式的作品。原创 2024-06-02 22:01:42 · 3450 阅读 · 0 评论 -
构建 Terraform 模块的分步指南
在快速发展的云计算环境中,高效管理和配置基础设施的能力比以往任何时候都更加重要。HashiCorp 的 Terraform 已成为该领域的游戏规则改变者,它提供了一种基于声明式代码的基础设施管理方法,也称为“基础设施即代码”(IaC)。通过将基础架构编入版本控制配置,Terraform 使开发人员和运营团队能够以无与伦比的精度自动化、重用和管理基础架构。原创 2024-05-29 10:17:54 · 2775 阅读 · 0 评论 -
Transformers:它们如何转换您的数据?
在快速发展的人工智能和机器学习领域,一项创新因其对我们处理、理解和生成数据的方式产生深远影响而脱颖而出:Transformers。Transformer 彻底改变了自然语言处理 (NLP) 及其他领域,为当今一些最先进的 AI 应用程序提供动力。但究竟什么是变形金刚,它们如何以如此开创性的方式转换数据?本文揭开了 Transformer 模型内部工作的神秘面纱,重点介绍了编码器架构。我们将首先在 Python 中实现 Transformer 编码器,分解其主要组件。然后,我们将可视化 Transfor原创 2024-05-01 13:33:50 · 3176 阅读 · 1 评论 -
理解相似性搜索(也称为语义搜索)的指南
人工智能最新阶段的关键发现之一是能够基于相似性搜索来搜索和查找文档。相似性搜索是一种根据信息的含义而不是通过关键字来比较信息的方法。原创 2024-04-25 13:45:16 · 3050 阅读 · 0 评论 -
从头开始构建自己的 GPT 大型语言模型
我们将使用 PyTorch 从头开始构建生成式 AI、大型语言模型——包括嵌入、位置编码、多头自注意、残差连接、层归一化,Baby GPT 是一个探索性项目,旨在逐步构建类似 GPT 的语言模型。在这个项目中,我不会太详细地解释理论,而是主要展示编码部分。该项目从一个简单的 Bigram 模型开始,并逐渐融入了 Transformer 模型架构的高级概念。原创 2024-04-21 16:56:17 · 3590 阅读 · 4 评论 -
使用 Python 进行自然语言处理第 4 部分:文本表示
本文是我系列文章的第四篇,涵盖了我在 2023 年 3 月为 WomenWhoCode 数据科学跟踪活动提供的会议。早期的文章在这里:第 1 部分(涵盖 NLP 简介)、第 2 部分(涵盖 NLTK 和 SpaCy 库)、第 3 部分(涵盖文本预处理技术)原创 2024-03-06 09:35:50 · 3034 阅读 · 0 评论 -
可视化 RAG 数据 — EDA for Retrieval-Augmented Generation
LLM的推理过程缺乏透明度,使用户难以理解结论是如何得出的。为了应对这些挑战,已经开发了一种称为检索增强生成(RAG)的技术。RAG 向 LLM 的工作流添加了一个检索步骤,使其能够在响应查询时从其他来源(如您的私人文本文档)查询相关数据。原创 2024-02-24 00:20:05 · 2845 阅读 · 0 评论 -
彻底改变单词嵌入和文本分类
2016 年由 Facebook 的 AI Research (FAIR) 团队推出的 FastText 已迅速成为自然语言处理 (NLP) 领域的基石。这种创新的词嵌入和文本分类方法以其效率和有效性而著称,特别是对于具有丰富形态特征的语言以及需要在粒度级别上理解句法和语义细微差别的场景。本文深入探讨了 FastText 的起源、技术基础、优势、应用和局限性,全面概述了它对 NLP 的影响。原创 2024-02-14 00:45:24 · 2835 阅读 · 0 评论 -
拼写检查应用程序:基于词典编辑的解释
拼写检查器项目涉及创建一个可以自动检测并纠正给定文本中的拼写错误的程序。此类项目在各种应用程序中非常有用,例如文字处理器、电子邮件客户端和网络浏览器,可确保用户生成的文本没有拼写错误。原创 2024-02-13 12:43:02 · 2830 阅读 · 1 评论 -
【LLM新概念】什么是深湖(DeepLake)
Deep Lake 是专门用于深度学习用例的数据湖(数据库),其中原始数据包括图像、视频、音频和其他非结构化数据。然后,原始数据被具体化为深度学习本机传感存储格式,并通过网络流式传输到模型训练。原创 2024-02-13 12:20:25 · 3548 阅读 · 0 评论 -
【Transformer-Hugging Face手册 08/10】使用脚本进行训练
除了 Transformers 笔记本之外,还有一些示例脚本演示如何使用 PyTorch、TensorFlow 或 JAX/Flax 为任务训练模型。原创 2024-02-08 18:28:26 · 2839 阅读 · 0 评论 -
【Transformer-Hugging Face手册 07/10】 微调预训练模型
使用预训练模型有显着的好处。它可以降低计算成本和碳足迹,并允许您使用最先进的模型,而无需从头开始训练。 🤗 Transformers 提供了针对各种任务的数千个预训练模型的访问权限。当您使用预训练模型时,您可以在特定于您的任务的数据集上对其进行训练。这被称为微调,是一种非常强大的训练技术。原创 2024-02-07 21:30:49 · 3278 阅读 · 0 评论 -
【Transformer-Hugging Face 06/10】 数据预处理实例
在数据集上训练模型之前,需要将其预处理为预期的模型输入格式。无论您的数据是文本、图像还是音频,都需要将它们转换并组装成批量张量。🤗 Transformers 提供了一组预处理类来帮助为模型准备数据原创 2024-02-06 16:21:28 · 3245 阅读 · 0 评论 -
【LongChain-03】在本地运行LLM的另一些案例
PrivateGPT、 llama.cpp和 GPT4All等项目的流行 强调了在本地(在您自己的设备上)运行 LLM 的需求。 这至少有两个重要的好处: Privacy:您的数据不会发送给第三方,并且不受商业服务的服务条款的约束 Cost:没有推理费用,这对于代币密集型应用程序很重要(例如,长时间运行的模拟、摘要)原创 2024-02-05 13:04:52 · 3061 阅读 · 0 评论 -
在本地运行大型语言模型 (LLM) 的六种方法(2024 年 1 月)
这篇文章被称为“本地运行大型语言模型 (LLM) 的五种方法”,于 2024 年 1 月更新了有关vLLM的内容。虽然 vLLM 于 2023 年 6 月发布,但它最近获得了更多关注。因此,我想将其添加到此列表中。原创 2024-02-05 09:42:10 · 14676 阅读 · 2 评论 -
使用 LoRA 在 viggo 数据集上微调 Microsoft phi-2 小语言模型
接下来,我们将看到有关如何使用 HuggingFace 中的 phi-2 进行提示的分步 Python 代码,然后我们将在 veggo 数据集上对其进行微调。我使用 T4 GPU 在 Google Colab 免费层上运行了此代码笔记本。原创 2024-02-04 12:04:12 · 3533 阅读 · 2 评论 -
【使用 Python 进行 NLP】 第 2 部分 NLTK
Python 有一些非常强大的 NLP 库,NLTK — 自然语言工具包 — NLTK 是一个强大的开源库,用于 NLP 的研究和开发。它内置了 50 多个文本语料库和词汇资源。它支持文本标记化、词性标记、词干提取、词形还原、命名实体提取、分割、分类、语义推理。原创 2024-02-04 11:35:38 · 2741 阅读 · 0 评论 -
使用 Astra DB、LangChain 和 Vercel 构建维基百科聊天机器人
你有多少次问谷歌一个问题,只是为了得到一个维基百科的链接,需要你点击、加载网站并滚动才能找到答案?那么自动问题搜索又是如何呢?原创 2024-02-04 09:56:58 · 2708 阅读 · 0 评论 -
【Transformer(04/10) 】 Hugging Face手册-推理管道
这里是Hugging Face手册第四部分,如何使用推理管道;即使您没有特定模式的经验或不熟悉模型背后的底层代码,您仍然可以使用它们通过 pipeline ()进行推理!原创 2024-02-03 12:13:58 · 2829 阅读 · 0 评论 -
【文本到上下文 #10】探索地平线:GPT 和 NLP 中大型语言模型的未来
欢迎阅读我们【文本到上下文 #10】:此为最后一章。以我们之前对 BERT 和迁移学习的讨论为基础,将重点转移到更广阔的视角,包括语言模型的演变和未来,特别是生成式预训练转换器 (GPT) 及其在 NLP 中的重要作用。原创 2024-02-03 09:26:08 · 3317 阅读 · 1 评论 -
【transformer(03/10) 】Hugging Face 安装环境
关于transformer库的安装环境的说明;因为transformer是一个不小的大型软件,安装的时候对环境还是需要一定规划,一般安装在虚拟环境中,以便与常规软件进行隔离。原创 2024-02-03 07:32:04 · 4036 阅读 · 0 评论 -
自然语言处理(02/10):自然语言处理任务和应用程序
在广阔的人工智能领域,自然语言处理 (NLP) 是一个迷人而充满活力的领域。NLP 弥合了计算机和人类语言之间的鸿沟,使机器能够理解、解释和生成类似人类的文本。这项变革性技术具有深远的影响,影响着我们日常生活的各个行业和方方面面。在这篇博文中,我们将探讨关键的 NLP 任务及其多样化的应用,展示语言处理的非凡能力。原创 2024-02-02 14:14:01 · 3587 阅读 · 0 评论 -
【文本到上下文 #8】NLP中的变形金刚:解码游戏规则改变者
欢迎来到我们对不断发展的自然语言处理 (NLP) 领域的探索的第 8 章。在本期中,我们将重点介绍一项重塑 NLP 格局的突破性创新:Transformers。在我们之前对 seq2seq 模型、编码器-解码器框架和注意力机制的讨论之后,我们现在开始了解 Transformer 如何彻底改变语言任务的方法。原创 2024-02-02 06:39:00 · 2762 阅读 · 0 评论