
资深文章(前沿/经验/创新)
文章平均质量分 82
本专栏文章,为专业领域资深文章、含金量较高证书考题总结或者专业领域经验文章,以及代码案例综合实现,主要以行业实践经验积累、领域创新、好的idea为主。
优惠券已抵扣
余额抵扣
还需支付
¥299.90
¥399.90
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
一个处女座的程序猿
2025年初博主2本新书(机器学习耗时5年/大模型耗时3年)即将开售!人工智能硕学历,拥有十多项发专利(6项)和软著(9项),包括国际期刊SCI内多篇论文,多个国家级证书(2个国三级、3个国四级),曾获国内外“人工智能算法”竞赛(包括国家级省市级等,一等奖5项、二等奖4项、三等奖2项)证书十多项,以上均第一作者身份,并拥有省市校级个人荣誉证书十多项。目前也是国内知名博主,连续3年获优快云十大博客之星,荣获达摩院评测官、阿里社区/优快云/华为社区等十多个开发者社区专家博主荣誉,曾受邀阿里/华为/谷歌等社区采访-评审-论坛几十次。截止2022年,AI领域粉丝超100万,文章阅读量超5000万
展开
-
XAI/ML:可解释人工智能XAI/ 机器学习模型可解释性的简介(背景/术语解释/核心思想/意义/方法/技术/案例)、常用工具包、案例应用(DS/CV/NLP各领域)之详细攻略
XAI/ML:可解释人工智能XAI/ 机器学习模型可解释性的简介(背景/术语解释/核心思想/意义/方法/技术/案例)、常用工具包、案例应用(DS/CV/NLP各领域)之详细攻略目录机器学习模型可解释性相关文章模型可解释性的背景机器学习模型可解释性的简介(术语解释/核心思想/意义/方法/技术/案例)模型可理解性的常用的工具包模型可解释性的案例应用:基于DS/CV/NLP各领域的可解释性技术机器学习模型可原创 2022-08-29 00:05:17 · 80 阅读 · 0 评论 -
LLMs:基于互联网应用系统的架构的视角—分别从两大部署组(后端服务和Nginx服务【反向代理+负载均衡】)来深度探讨大模型高效部署与应用的核心逻辑、实战案例讲解(对比并分析线电商网站和基于大型语言模
LLMs:基于互联网应用系统的架构的视角—分别从两大部署组(后端服务和Nginx服务【反向代理+负载均衡】)来深度探讨大模型高效部署与应用的核心逻辑、实战案例讲解(对比并分析线电商网站和基于大型语言模型服务案例)之详细攻略目录传统互联网应用系统的架构简介1、后端服务和Nginx服务的简介1.1、后端服务(Backend Service)1.2、Nginx服务:负载均衡+反向代理2、两者关联2.1、配置Nginx作为反向代理2.2、Nginx实现负载均衡案例实战原创 2024-12-13 00:34:54 · 1699 阅读 · 0 评论 -
LLMs之DDP:基于PySpark实现LLMs场景中的数据分布式预处理之分词和编码(转换Token ID)—初始化Spark集群(连接集群主节点/分配内存资源和CPU核数)→加载词汇表和预处理数据→
LLMs之DDP:基于PySpark实现LLMs场景中的数据分布式预处理之分词和编码(转换Token ID)—初始化Spark集群(连接集群主节点/分配内存资源和CPU核数)→加载词汇表和预处理数据→定义并执行UDF实现分词和编码→保存结果(保存到HDFS等分布式存储/存储到mysql数据库/将二进制文件(.bin)和索引文件(.idx)存储到HDFS中)→停止Spark会话目录基于PySpark实现LLMs场景中的数据分布式预处理之分词和编码(转换Token ID)—初始化Spark集群(连接原创 2024-11-27 21:51:08 · 1053 阅读 · 0 评论 -
LLMs之VDB之Elasticsearch:基于Elasticsearch向量数据库工具中的ElasticsearchRetriever对比多种不同搜索方法并构建RAG系统—基于本地Docker开
LLMs之VDB之Elasticsearch:基于Elasticsearch向量数据库工具中的ElasticsearchRetriever对比多种不同搜索方法并构建RAG系统—基于本地Docker开启Elasticsearch服务(与Elasticsearch集群交互)→定义数据/创建索引/向量化并索引到Elasticsearch中→对比不同的检索方法(向量搜索/BM25搜索/混合搜索/模糊匹配/复杂过滤)→自定义文档映射器→结合GPT-4o构建RAG系统目录基于Elasticsearch向量原创 2024-07-27 23:07:30 · 302 阅读 · 0 评论 -
LLMs之VDB之Elasticsearch:基于Elasticsearch向量数据库的ElasticsearchCache缓存策略来实现持久化缓存(避免重复提问相同或类似的问题)——开启服务并配置E
LLMs之VDB之Elasticsearch:基于Elasticsearch向量数据库的ElasticsearchCache缓存策略来实现持久化缓存(避免重复提问相同或类似的问题)——开启服务并配置ElasticsearchCache(配置Elasticsearch服务地址和索引名称)→设置缓存→从缓存中查询→如果缓存中没有答案则调用GPT-4模型生成答案→缓存答案→测试两次查询(第1次查询调用GPT-4并缓存结果/第2次查询相同问题+从缓存中直接返回结果)目录基于Elasticsearch向量原创 2024-07-27 23:08:46 · 256 阅读 · 0 评论 -
LLMs之Calculate:利用大语言模型技术基于文本内容实现数字计算能力的简介、常用方法、代码实现之详细攻略
LLMs之ETA之Calculate:利用大语言模型技术基于文本内容实现数字计算能力的简介、常用方法、代码实现之详细攻略目录利用大语言模型技术基于文本内容实现数字计算能力的简介常用方法与技术利用大语言模型技术基于文本内容实现数字计算能力的简介大语言模型(如GPT-4、BERT等)在处理自然语言时,通常会依赖于海量的语料库进行训练,从而学习如何理解和生成与语言相关的各种任务。然而,当涉及到数学计算时,尤其是复杂的算数计算、代数求解或更高层次的数学推理,语言模型并不像传统的计算机程原创 2024-11-06 22:53:45 · 1182 阅读 · 0 评论 -
ML之数据隐私:多种数据隐私技术对比—对客户数据集执行差分隐私计算(添加噪声到查询结果/允许对用户数据进行统计分析而不泄露具体信息)、AES加密(对称加密/相同密钥解密后才能进行计算/用于数据传输和存
ML之数据隐私:多种数据隐私技术对比—对客户数据集执行差分隐私计算(添加噪声到查询结果/允许对用户数据进行统计分析而不泄露具体信息)、AES加密(对称加密/相同密钥解密后才能进行计算/用于数据传输和存储的保护)、同态加密(可在加密数据上直接计算【加法和乘法】/计算结果在解密后与原始数据计算结果一致/适用于云计算和安全多方计算)目录对客户数据集执行差分隐私计算(添加噪声到查询结果/允许对用户数据进行统计分析而不泄露具体信息)、AES加密(对称加密/相同密钥解密后才能进行计算/用于数据传输和存储的保原创 2024-10-30 23:27:43 · 1284 阅读 · 0 评论 -
TC之FL:可信计算之纵向联邦学习三种不同框架实战场景及其代码案例—基于自定义框架+采用LightGBM算法实现纵向联邦学习、基于tensorflow_federated库+采用神经网络算法实现纵向联
TC之FL:可信计算之纵向联邦学习三种不同框架实战场景及其代码案例—基于自定义框架+采用LightGBM算法实现纵向联邦学习、基于tensorflow_federated库+采用神经网络算法实现纵向联邦学习、基于PySyft库+采用线性模型实现纵向联邦学习目录可信计算之纵向联邦学习三种不同框架实战场景及其代码案例—基于自定义框架+采用LightGBM算法实现纵向联邦学习、基于tensorflow_federated库+采用神经网络算法实现纵向联邦学习、基于PySyft库+采用线性模型实现纵向联邦原创 2024-10-30 23:23:41 · 1322 阅读 · 0 评论 -
TC之FL:可信计算之联邦学习实战场景及其代码案例—基于联邦学习框架构建分布式评分卡模型—定义数据集→数据预处理→构建训练并评估算法模型→联邦平台获取模型参数→构建评分卡模型打分规则→执行打分
TC之FL:可信计算之联邦学习实战场景及其代码案例—基于联邦学习框架构建分布式评分卡模型—定义数据集→数据预处理→构建训练并评估算法模型→联邦平台获取模型参数→构建评分卡模型打分规则→执行打分目录可信计算之联邦学习实战场景及其代码案例—基于联邦学习框架构建分布式评分卡模型—定义数据集→数据预处理→构建训练并评估算法模型→联邦平台获取模型参数→构建评分卡模型打分规则→执行打分可信计算之联邦学习实战场景及其代码案例—基于联邦学习框架构建分布式评分卡模型—定义数据集→数据预处理→构建训练并评原创 2024-10-30 23:22:48 · 1331 阅读 · 0 评论 -
成功解决刁钻bug问题—数据穿越的问题之在子函数内部使用重载dataframe格式的全局变量并执行赋值等相关操作
成功解决刁钻bug问题—数据穿越的问题之在子函数内部使用重载dataframe格式的全局变量并执行赋值等相关操作目录解决问题解决思路解决方法解决问题在子函数内部使用重载dataframe并执行赋值等相关操,导致数据穿越的问题在Python中,如果你希望在子函数内部使用重载的DataFrame格式的全局变量并进行赋值等操作,可以采取以下方法:解决思路在子函数内部使用重载dataframe格式的全局变量,会导致数据本身更改,其原因主要是被赋值,后续调用全局变量,内容原创 2024-10-27 23:28:28 · 1099 阅读 · 0 评论 -
LLMs之Text2SQL:大语言模型场景实战案例应用—让查询和问答应用更智能(利用LLMs与数据库交互)—Text2Sql任务的简介、三类六大技术方案(LLM/RAG/ETA等)、排行榜平台(如Sp
LLMs之SQL:大语言模型场景实战案例应用—让查询和问答应用更智能(利用LLMs与数据库交互,比如法律合同/简历/财务数据/客户支持)、多种技术方案(LLM/RAG等)目录相关文章Spider数据集的简介LLMs场景实战案例:查询(定位到准确目标)、搜索(查找到一个范围)现有案例实战应用相关文章LLMs:《Building LLM applications for production构建用于生产的LLM应用程序》翻译与解读LLMs:《Building LL原创 2023-11-26 10:21:49 · 1347 阅读 · 0 评论 -
LLMs之Tool之ETA:通过现象看本质——探究国内外可以调用工具能力的LLM是如何实现自主选择工具的核心逻辑(本质就是以LLM作为选择的决策引擎),以及该能力的一些思考
LLMs之ETA:通过现象看本质——探究国内外可以调用工具能力的大模型是如何实现否调用或者是自主选择工具的本质逻辑(本质是LLM作为决策引擎),以及一些思考目录探究国内外可以调用工具能力的LLM是如何实现是否调用工具以及自主选择要调用合适工具的具体逻辑探究具体有调用工具能力LLM的一些关键技术:训练语料、命令LLM作为决策引擎时的提示词等探究国内外可以调用工具能力的LLM是如何实现是否调用工具以及自主选择要调用合适工具的具体逻辑你是一位大语言模型(LLM)算法专家,请你帮原创 2024-06-25 23:17:14 · 537 阅读 · 0 评论 -
LLMs之ChatGLM:查看AutoModelForCausalLM加载对应LLM模型结构方法—ChatGLM系列模型(ChatGLM-1/ChatGLM-2/ChatGLM-3/ChatGLM-4
LLMs之ChatGLM:ChatGLM-1、ChatGLM-1、ChatGLM-1、ChatGLM-1等网络架构详解及其对比(伪代码的形式)目录模型架构比较三大架构对比模型架构比较tokenizer=AutoTokenizer.from_pretrained(model_path,trust_remote_code=True)model=AutoModel.from_pretrained(model_path,trust_remote_code=True).flo原创 2024-06-20 02:04:05 · 1256 阅读 · 0 评论 -
LLMs之Tool之ChatGLM-3-6B:模型微调实战(单论对话对微调+多轮对话微调【可包括工具调用能力】)——基于输入输出(prompt-response)格式AdvertiseGen、多轮对话
LLMs之ChatGLM3-6B:基于输入输出(prompt-response)格式AdvertiseGen、多轮对话格式数据集(AdvertiseGen/ToolAlpaca,模板四要素system-user-assistant-observation)→微调模型(利用全量微调/P-Tuning v2/LORA【暂未实现】微调+支持多卡/可继续微调)+仅微调模型对话额能力{system-user-assistant}/同时微调对话能力和工具调用能力{tools-system-user-assistan原创 2024-04-05 23:32:14 · 1170 阅读 · 0 评论 -
LLMs之Tool之ChatGLM-3:解读ChatGLM3如何实现“工具调用”这一炸天功能(分别从ChatGLM3的源代码和训练样本数据视角)—system prompt(用户定义工具)→user
LLMs之Tool之ChatGLM3:解读ChatGLM3如何实现“工具调用”这一炸天功能(分别从ChatGLM3的源代码和训练样本数据视角)—system prompt(用户定义工具)→user prompt(用户提出问题)→assistant response(即LLM去识别是否使用工具【基于提供的工具和询问的问题】+然后判断要调用的工具函数及其入参【此处通过特殊的微调样本有加强LLM的这一能力】,包括metadata【函数名】/content【固定写死的tool_call()函数】)+system原创 2023-12-07 00:23:20 · 889 阅读 · 0 评论 -
成功解决AttributeError: module ‘pandas.core.strings‘ has no attribute ‘StringMethods‘
成功解决AttributeError: module 'pandas.core.strings' has no attribute 'StringMethods'目录解决问题解决方法解决问题AttributeError: module 'pandas.core.strings' has no attribute 'StringMethods'解决方法第一次尝试,猜测pandas和dask不兼容的问题导致!pip uninstall pandaspip uninstall原创 2024-06-05 00:21:28 · 1690 阅读 · 0 评论 -
LLMs之RAG:提高化RAG性能之优化分块Chuck的策略的常用方法(固定块大小、语义分块【句子分割/NLTK/spaCy/嵌入模型】、递归分块、结构分块【html/markdown/latex】)
LLMs之RAG:提高化RAG性能之优化分块Chuck的策略的常用方法(固定块大小、语义分块【句子分割/NLTK/spaCy/嵌入模型】、递归分块、结构分块【html/markdown/latex】)、代码实现(基于langchain框架)之详细攻略。原创 2024-06-09 22:20:22 · 1704 阅读 · 1 评论 -
成功解决FileNotFoundError: [Errno 2] No such file or directory: ‘D:\\ProgramData\\Anaconda3\\Lib\\site-p
成功解决FileNotFoundError: [Errno 2] No such file or directory: 'D:\\ProgramData\\Anaconda3\\Lib\\site-packages\\win32com\\gen_py\\dicts.dat'目录解决问题解决思路解决方法解决问题Traceback (most recent call last): File "D:\ProgramData\Anaconda3\Lib\site-packages\wi原创 2024-06-01 00:23:36 · 2485 阅读 · 1 评论 -
成功解决CUDA Setup failed despite GPU being available. Inspect the CUDA SETUP outputs above to fix your
成功解决CUDA Setup failed despite GPU being available. Inspect the CUDA SETUP outputs above to fix your environment!目录解决问题解决思路解决方法解决问题===================================BUG REPORT===================================Welcome to bitsandbytes. For原创 2024-05-26 00:29:19 · 1770 阅读 · 0 评论 -
成功解决ValueError: could not convert string to float—深度刨析随森林模型RandomForestClassifier直接处理类别型特征报错原因及其解决方
成功解决ValueError: could not convert string to float—深度刨析随森林模型RandomForestClassifier直接处理类别型特征报错原因及其解决方案目录解决问题解决思路解决方法解决问题 File "E:\File_Python\Python_Books\Chapter_2\demo00001.py", line 111, in feature_importance_selector clf.fit(df原创 2024-05-29 01:56:00 · 1449 阅读 · 0 评论 -
LLMs之FineTuning:在Colab平台采用LLaMA-Factory框架并基于T4 GPU实现一个端到端的模型微调流程—环境设置(需要GPU)→微调模型(采用llmtuner)→微调推理(基
LLMs之FineTuning:在Colab平台采用LLaMA-Factory框架并基于免费的Tesla T4 GPU实现一个端到端的模型微调流程—环境设置(需要GPU)→微调模型(采用llmtuner)→微调推理(基于Qwen1.5-0.5B模型+LoRA微调)→微调导出(将微调知识【LoRA权重】合并到原始模型中)目录在Colab平台采用LLaMA-Factory框架并基于免费的Tesla T4 GPU实现一个端到端的模型微调流程—环境设置(需要GPU)→微调模型(采用llmtuner)→微原创 2024-04-13 23:03:47 · 998 阅读 · 0 评论 -
LLMs之ReACT-Agent:ReACT-Agent简介、实现及其使用方法(MReACT/AutoReACT)、案例应用(比如采用ReAct框架让LLM稳定输出JSON格式数据)之详细攻略
Prompt的案例应用(比如采用ReAct框架让LLM稳定输出JSON格式数据)1、原创 2024-05-29 01:59:28 · 2062 阅读 · 0 评论 -
LLMs:预训练大模型实现全流程详解之模型训练各种技巧原理细讲—3.2、模型预训练及优化:降内存优化之AMP混合精度训练的简介、原理剖解、案例应用之详细攻略
LLMs:预训练大模型实现全流程详解之模型训练各种技巧原理细讲—3.2、模型预训练及优化:降内存优化之AMP混合精度训练的简介、原理剖解、案例应用之详细攻略目录机器学习和深度学习中数据的表示/存储方式、量化技术(预估显存占用的计算方式):双精度、单精度float32、半精度float16(FP16/BF16)、4bit量化(INT4)的联系与区别1、浮点数表示格式的简介——LLMs中的AMP混合精度训练技术2、整数和固定点数格式的简介——LLMs中的模型量化技术AMP混合精度原创 2024-05-14 18:53:16 · 1684 阅读 · 0 评论 -
LLMs之Transformer:深度剖析类Transformer的大语言模型中的显存占用估计(显存占用构成,训练阶段/推理阶段)、耗时估计(计算量占用构成,训练阶段/推理阶段)之详细攻略
LLMs之Transformer:深度剖析类Transformer的大语言模型中的显存占用估计(显存占用构成,训练阶段/推理阶段)、耗时估计(计算量占用构成,训练阶段/推理阶段)之详细攻略目录LLMs空间计算—显存占用估计LLMs耗时计算—计算时间估计:LLMs空间计算—显存占用估计Transformer模型的计算量主要集中在权重矩阵乘法计算。计算量分析表明,权重矩阵乘法的计算量相较于其他操作可以忽略不计。对于一个token,每个模型参数,需要进行2次浮点数运算。显原创 2024-05-15 01:04:23 · 1888 阅读 · 0 评论 -
LLMs之ChatGLM-3:解读ChatGLM3-6B模型微调(多卡全量微调/单卡P-Tuning v2微调)所有sh脚本文件(finetune_ds.sh /finetune_pt.sh、fine
LLMs之ChatGLM3:解读ChatGLM3-6B模型微调(多卡全量微调/单卡P-Tuning v2微调)所有sh脚本文件(finetune_ds.sh /finetune_pt.sh、finetune_ds_multiturn.sh/finetune_pt_multiturn.sh)—实现基于PyTorch框架分布式训练并采用混合精度训练+梯度累积等技术微调训练大型语言模型目录1、基于简单输入/输出数据集的微调ChatGLM3-6B2、基于多轮对话数据集的微调ChatGLM3-6原创 2023-12-07 00:45:38 · 800 阅读 · 0 评论 -
LLMs之ChatGLM-3:finetune.py源码解读微调模型—参数解析与初始化配置(清空CUDA缓存+解析JSON文件中的参数+设置训练日志格式和级别+设置随机种子)→加载预训练模型和分词器(
LLMs之ChatGLM3:finetune.py文件解读—基于数据集(多轮对话格式/输入-输出格式)来微调ChatGLM3-6B模型来适应特定的任务(如对话系统)—参数解析和配置→加载预训练模型和分词器(P-tuning v2技术+模型量化技术)→数据预处理(支持不同格式的训练数据【多轮对话格式/输入-输出格式】)→初始化数据收集器和训练器→模型训练(基于PyTorch分布式框架+梯度累积+梯度检查点技术等,显存21G/对比推理需要13G)目录finetune.py文件解读—基于数据集(多轮对原创 2023-12-14 01:29:24 · 716 阅读 · 0 评论 -
LLMs之Grok-1:model.py文件解读—实现了基于Transformer的预训练语言模型+利用JAX框架支持高性能分布式计算
LLMs之Grok-1:model.py文件解读—实现了基于Transformer的预训练语言模型+利用JAX框架支持高性能分布式计算目录model.py文件解读—实现了基于Transformer的预训练语言模型+利用JAX框架支持高性能分布式计算全部代码model.py文件解读—实现了基于Transformer的预训练语言模型+利用JAX框架支持高性能分布式计算源码地址:grok-1/model.py at main · xai-org/grok-1原创 2024-03-24 00:33:57 · 1367 阅读 · 0 评论 -
LLMs:大模型核心技术—上下文窗口长度技术的简介(核心技术拆解)、发展历史、案例应用之详细攻略
LLMs:大模型核心技术—上下文窗口长度技术的简介(核心技术拆解)、发展历史、案例应用之详细攻略目录上下文窗口长度技术的简介上下文窗口长度技术的简介背景上下文窗口长度参数是大语言模型的一部分,它在模型的训练时起作用,决定了模型能够理解的上下文文本长度。而输入文本的最大长度是在实际使用模型进行推理或生成文本时的一个实际限制,决定了可以传递给模型的文本的最大长度。>> 上下文窗口长度()通常是模型训练时的一个超参数,决定了模型在训练时可以看到的上下文文本的长原创 2023-11-08 00:02:57 · 1605 阅读 · 0 评论 -
AI之DL:人工智能领域—深度学习的发展历程之深度学习爆发的三大因素、探究DL为什么耗算力
针对梯度消失等问题,算法进行了优化。,比如深度神经网络的梯度消失问题,神经网络长期以来存在的问题是梯度消失,即在反向传播过程中,每一层都乘以激活函数的导数值,如果这个导数的绝对值小于1,经过多次乘法后梯度很快趋近于零,导致前面的层无法得到有效的更新。:如图是基于TensorFlow 的分布式学习的效果,横轴是GPU的个数,纵轴是与单个GPU相比时的加速倍数。>> 位数精度的缩减加速: 提到了降低位数精度的技术,即使用较低位数的浮点数来表示权重和激活值,从而减轻计算负担,实现深度学习的高速化。原创 2024-01-28 23:36:12 · 1634 阅读 · 1 评论 -
LLMs:Ghost Attention(GAtt)机制的简介(改进多轮对话+帮助注意力聚焦)、原理、作用之详细攻略
LLMs:Ghost Attention(GAtt)机制的简介(改进多轮对话+帮助注意力聚焦)、原理、作用之详细攻略目录来源Ghost Attention(GAtt)机制的简介、原理、作用来源LLMs之LLaMA-2:LLaMA-2的简介(技术细节)、安装、使用方法(开源-免费用于研究和商业用途)之详细攻略https://yunyaniu.blog.youkuaiyun.com/article/details/131819938Ghost Attention(GAtt)机制的简介、原理、作原创 2024-01-10 21:42:48 · 1785 阅读 · 1 评论 -
NLP之Transformer:六大核心技术点(ED/SA/MHA/PE/FNN/RC-LN)、统计各模块可训练参数、全流程各子模块原理详解(IE+PE→Encoder【MHSA+Add&Norm+P
NLP之Transformer:Transformer算法的六大核心技术点(ED/SA/MHA/PE/FNN/RC-LN)、全流程各子模块原理详解——输入Embedding+位置编码、Encoder(MHA→PwFFNN)、Decoder(MaskeMHA→MHA→PwFFNN)、Linear+Softmax之详细攻略目录相关文章一、Transformer算法拆解图:吊炸天的序列模型二、Transformer的六大核心技术点(ED/SA/MHA/PE/FNN/RC-LN)原创 2022-02-28 00:00:54 · 4680 阅读 · 1 评论 -
LLMs之Code:大语言模型纵向赋能场景—垂直行业场景应用之大模型代码场景的简介、主流LLMs(SQLCoder/Code Llama/Ziya-Coding/CodeShell等)及其评估
LLMs之Code:大语言模型纵向赋能场景—垂直行业场景应用之大模型代码场景的简介、主流LLMs(SQLCoder/Code Llama/Ziya-Coding/CodeShell等)及其评估基准(包括数据集)、案例应用之详细攻略目录大模型代码场景的简介大模型代码场景的主流LLMs及其评估基准(包括数据集)大模型代码场景的案例应用大模型代码场景的简介简介大模型代码场景是指将大型语言模型(如GPT-3、GPT-4等)用于生成、修改、理解和解释计算机编程代码的各原创 2023-11-03 00:00:35 · 1944 阅读 · 0 评论 -
LLMs之HFKR:HFKR(基于大语言模型实现异构知识融合的推荐算法)的简介、原理、性能、实现步骤、案例应用之详细攻略
LLMs之HFKR:HFKR(基于大语言模型实现异构知识融合的推荐算法)的简介、原理、性能、实现步骤、案例应用之详细攻略目录HFKR的简介HFKR的简介异构知识融合:一种基于LLM的个性化推荐新方法论文 《Heterogeneous Knowledge Fusion: A Novel Approach for Personalized Recommendation via LLM》翻译与解读地址地址:https://arxiv.org/abs/2308.03333时间原创 2023-11-02 00:11:20 · 1799 阅读 · 0 评论 -
AGI之Agent:Agent(一种训练LLM模拟人类在现实世界中各种规则和行为系统)的简介(本质/原理/核心技术/优化改进/挑战/评估基准/类型/传统Agent与LLM Agent多维度对比等)、实
Agent的实战部署应用LLMs之ChatGLM3:ChatGLM3/ChatGLM3-6B的简介(多阶段增强+多模态理解+AgentTuning技术)、安装和使用方法、案例应用(实现多轮对话能力(Chat)、工具调用能力(-优快云博客LLMs之GLM-4:GLM-4的简介(全覆盖【对话版即ChatGLM4的+工具调用+多模态文生图】能力→Agent)、安装和使用方法、案例应用之详细攻略-优快云博客2、部署框架T1、基于。原创 2023-06-17 01:27:31 · 1549 阅读 · 0 评论 -
LLMs之RAG:基于LangChain框架利用ChatGPT的API实现一个与在线网页交互的对话机器人—五大思路步骤—加载文档WebBaseLoader网址文件→文档分割(chunk_size=50
LLMs之RAG:基于LangChain框架利用ChatGPT的API实现一个与在线网页交互的对话机器人—五大思路步骤—加载文档WebBaseLoader网址文件→文档分割(chunk_size=500)→文本嵌入化(OpenAIEmbeddings)并存储到向量库(Chroma)→构造Prompt(拉取一个对象并将其返回为 LangChain对象)→定义LLMs(ChatOpenAI)→输入查询文本来构造RAG chain并利用LLMs生成响应目录相关文章LLMs之RAG:基于Lang原创 2023-10-19 23:55:14 · 2449 阅读 · 0 评论 -
VDB之Faiss:利用Faiss工具实现检索相似向量TopK的三步流程详解(创建向量库→构建索引并将向量库中的向量添加到索引中→利用k最近邻搜索找出TopK的相似query)及其代码实现之详细攻略
VDB之Faiss:利用Faiss工具实现检索相似向量TopK的三步流程详解(创建向量库→构建索引并将向量库中的向量添加到索引中→利用k最近邻搜索找出TopK的相似query)及其代码实现之详细攻略目录利用Faiss工具实现检索相似向量TopK的三步流程详解及其代码实现利用Faiss工具实现检索相似向量TopK的三步流程详解及其代码实现# 1、创建向量库:利用numpy自定义实现xb数据库、xq查询向量'''获取一些数据Faiss处理具有固定维度d的向量集合,通常是几十到几百。原创 2023-06-17 00:20:47 · 1305 阅读 · 0 评论 -
LLMs之RAG:基于LangChain框架+Blendle示例数据(手册)+ChatGPT接口实现与Notion数据库(Notion提供知识内容+Faiss提供快速搜索能力+pkl文件存储和加载Fa
LLMs之RAG:基于LangChain框架+Blendle示例数据(手册)+ChatGPT接口实现与Notion数据库(Notion提供知识内容+Faiss提供快速搜索能力+pkl文件存储和加载Faiss索引)提问并部署到StreamLit前端界面实现QA交互代码实战—解读多个py文件(利用ingest.py文件将从Notion的数据导入到LangChain中+利用qa.py文件实现向Notion数据库提出问题并获取答案和相关资源+利用main.py文件实现利用Streamlit构建的前端界面实现与一原创 2023-10-20 23:39:17 · 1563 阅读 · 0 评论 -
IRC/ML:金融智能风控—信贷风控场景简介、两大场景(贷款场景+信用卡场景)、信用卡评分模型设计、反欺诈检测技术的简介、案例应用之详细攻略
IRC/ML:金融智能风控—信贷风控场景简介、两大场景(贷款场景+信用卡场景)、信用卡评分模型设计、反欺诈检测技术的简介、案例应用之详细攻略目录信贷风控简介信贷风控两大场景信用卡反欺诈检测的简介信贷风控简介简介银行的主要收入或者利润来源来自贷款和信用卡,简称信贷。贷款和信用卡,我们统称为信贷。他们都有着相似的风控逻辑。风控思路使用传统的评分卡模型、决策树、神经网络等算法,根据借款人的个人信息、信用记录、还款历史等因素,评估其信用风险和偿还能力。原创 2023-10-15 23:45:43 · 2222 阅读 · 0 评论 -
NLP:基于对文本数据利用LSTM算法(tensorflow框架/学习映射)算法作为标签器进行结构化序列标记实现将大量的文本数据转化为结构化数据应用案例实现代码
NLP:基于对文本数据利用LSTM算法(tensorflow框架/学习映射)算法作为标签器进行结构化序列标记实现将大量的文本数据转化为结构化数据应用案例实现代码目录基于对文本数据利用LSTM算法(tensorflow框架/学习映射)算法作为标签器进行结构化序列标记实现将大量的文本数据转化为结构化数据应用案例# 1、定义数据集# 2、数据预处理# 3、模型训练与推理# 4、模型推理实现代码基于对文本数据利用LSTM算法(tensorfl原创 2023-10-15 23:27:43 · 1179 阅读 · 2 评论 -
LLMs之BELLE:源码解读(merge_tokenizers.py文件)扩充词表—训练和合并两个不同的SentencePiece分词模型—使用SentencePiece库来训练一个名为belle的
LLMs之BELLE:源码解读(merge_tokenizers.py文件)扩充词表—训练和合并两个不同的SentencePiece分词模型—使用SentencePiece库来训练一个名为belle的BPE分词器→加载两个现有的分词器模型→for循环对比去重的方式合并词汇表→保存合并后的新分词器模型。原创 2023-10-10 00:18:05 · 1169 阅读 · 0 评论