自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(73)
  • 资源 (3)
  • 收藏
  • 关注

原创 SAP财务常用Query 报表工具 SQ01 与Table介绍 -SAP财务数据高效解决方案

Excel处理多字段匹配及海量数据时效率低、资源消耗大,难以满足复杂财务分析需求。​SQ01/SQ02:零代码快速生成报表,支持多表关联与权限管理,跨系统传输便捷。​高性能:直连SAP数据库,百万级数据秒级响应,避免Excel卡顿崩溃。​灵活扩展:通过ABAP代码实现批量修改、对方科目追溯等复杂逻辑。凭证表(BKPF/BSEG)、主数据表(SKAT/BNKA/BUT000)、总账表(FAGLFLEXT)。​​SQ02配置:定义数据源与字段映射与abap开发实践

2025-03-24 16:15:35 652

原创 使用 Excel 实现绩效看板的自动化

sql审单日,单据量,折算单量,标准工时人力​审单日:显示审核日期。​单据量:统计一定时间范围内的单据总数。​折算单量:对某些单据量进行换算后的值,保留一位小数。​标准工时人力:基于工时量计算的标准工时所需的人力,保留一位小数。

2025-03-13 15:37:58 1843 2

原创 ITSM统计分析:提升IT服务管理效能 实施步骤与操作说明

这些SQL语句主要用于创建数据库表和视图,涵盖了从地址信息、检查清单、配置工作上传、工单管理、节假日信息、问题类型、时间记录、主工单及其历史、原因类型、备注、SLA管理到团队和工作类型的多个业务模块。通过这些表和视图,系统能够有效地存储和管理各种业务数据,并通过视图提供便捷的数据查询和分析接口。

2025-03-12 17:47:00 1007

原创 審單人員效率 PPP 模型

​数据流原始审单数据() → 工时计算() → 标椎工时计算() → 效率计算() → 最终评分(​最终输出通过view整合和表,计算每个人员的审单量、折合单量和效率。1. 数据来源表。

2025-03-10 17:01:53 882

原创 SAP SQ01 凭证查询 BKPF - BSEG

透过表连接可以串联出 凭证的内容。

2025-03-10 11:08:33 638

原创 SAP SQ01 用户权限查询 - AGR_USER

AGR_USER 权限查询通过这些表格和字段,管理员可以有效地管理和维护 SAP 系统中的角色、用户和事务代码,确保系统的安全性和功能性。根据提供的表格和输出字段,以下是对各个表格及其用途的说明:​​​​​​信息集 AGR - URSER ROLE表关系AGR_USERS和AGR_TCODES。

2025-03-10 10:11:31 653

原创 过年普陀山朝拜之旅:用 Python 绘制专属旅游地图,开启心灵朝圣!

过年期间去普陀山朝拜,是很多人心中的传统习俗。普陀山作为中国四大佛教名山之一,不仅有着悠久的历史和深厚的文化底蕴,其秀丽的自然风光也令人陶醉。然而,对于初次前往普陀山的人来说,如何规划一条合理的旅游路线,确保不错过任何重要的景点,可能会是一个难题。这时候,一张详细的旅游地图就显得尤为重要。定义函数,用于将坐标从 GCJ - 02 坐标系转换为 WGS84 坐标系,但具体转换逻辑未实现。我们将主要地点信息存储在一个列表中,每个地点用一个字典表示,包含名称、经纬度和描述等内容。"name": "普陀山码头",

2025-01-23 14:49:27 428

原创 从零开始逐步指导开发者构建自己的大型语言模型(LLM)学习笔记- 第5章 GPT 的大语言模型训练

导入必要的库和模块导入了多个常用的Python库,如matplotlibnumpytiktokentorchtensorflow等,还使用中的version函数来获取这些库的版本信息。定义了一些函数,如generateassign等,用于不同的功能,包括数据处理、模型训练、评估、文本生成、损失计算和权重加载等。模型配置和初始化定义了GPT模型的配置,包括词汇表大小、上下文长度、嵌入维度、注意力头数、层数、丢弃率等。使用GPTModel类(可能在。

2025-01-18 21:41:22 786

原创 从零开始逐步指导开发者构建自己的大型语言模型(LLM)学习笔记- 第4章 GPT 的大语言模型架构-衡量神经网络模型的计算复杂性

In [ ]:# pip install -r requirements-extra.txtIn [ ]:from importlib.metadata import versionpkgs = [ "thop", "torch",]for p in pkgs: print(f"{p} version: {version(p)}")thop version: 0.1.1-2209072238torch version: 2.4.1+cu121In [

2025-01-12 23:32:48 869

原创 从零开始逐步指导开发者构建自己的大型语言模型(LLM)学习笔记- 第2-4章 Python GPT 代码

这段代码实现了一个简单的 GPT 模型,包括数据处理、模型构建、训练和文本生成等功能。

2025-01-12 23:23:29 1058

原创 从零开始逐步指导开发者构建自己的大型语言模型(LLM)学习笔记- 第4章 GPT 的大语言模型架构 练习题

的函数,该函数用于计算模型的参数数量和模型的总大小(以MB为单位)。方法,它定义了模型的前向传播过程。

2025-01-12 23:03:43 535

原创 从零开始逐步指导开发者构建自己的大型语言模型(LLM)学习笔记- 第4章 GPT 的大语言模型架构Implementing a GPT model

回顾从零搭建 GPT 模型的关键步骤,包括架构设计、组件实现、训练与生成。强调层归一化、GELU 激活、快捷连接等技术对模型性能的提升作用。

2025-01-12 21:32:44 974

原创 从零开始逐步指导开发者构建自己的大型语言模型(LLM)学习笔记- 第3章 编码注意力机制Coding Attention Mechanisms

这段文本主要讲解了在原始 Transformer 架构、GPT 模型以及大多数其他流行的大型语言模型(LLMs)中使用的自注意力机制的实现步骤。它提到了计算注意力权重的总体思路,并指出与之前介绍的基本注意力机制相比,主要的不同在于引入了在模型训练过程中更新的权重矩阵,这些可训练的权重矩阵对于模型(特别是模型内部的注意力模块)能够学习生成 “良好” 的上下文向量至关重要。

2025-01-10 22:17:25 844

原创 使用vs code + cline + deepseek 解析项目开发代码

有些供应商没有把项目开发的内容详细说明,如果要挖掘里面的代码结构怎么办。

2025-01-09 09:58:52 4036 1

原创 使用 Python 的os模块来遍历文件夹结构,并以内缩节点的文字方式输出的小工具

【代码】使用 Python 的os模块来遍历文件夹结构,并以内缩节点的文字方式输出的小工具。

2025-01-09 09:33:05 373

原创 从零开始逐步指导开发者构建自己的大型语言模型(LLM)学习笔记- 第2章 Working with Text--bonus 彩蛋

这部分内容是《Build a Large Language Model From Scratch》一书的补充代码,代码仓库链接为。主要探讨 PyTorch 中嵌入层和线性层的差异,强调使用嵌入层是为了提高计算效率。这段代码是《Build a Large Language Model From Scratch》一书的补充代码,主要演示了如何使用滑动窗口方法对数字数据进行采样,并通过自定义的数据集类和数据加载器来处理这些数据。

2025-01-04 21:30:37 948

原创 从零开始逐步指导开发者构建自己的大型语言模型(LLM)学习笔记- 第2章 Working with Text - Exercise

从零开始逐步指导开发者构建自己的大型语言模型(LLM)学习笔记- 第2章 Working with Text-优快云博客这里是 课堂Exercise这段内容主要是关于《Build a Large Language Model From Scratch》这本书的补充代码,包含了一些练习的解答。

2025-01-04 18:41:12 915

原创 从零开始逐步指导开发者构建自己的大型语言模型(LLM)学习笔记- 第2章 Working with Text

return ids!定义了一个简单的标记器类,包含初始化方法__init__、编码方法encode和解码方法decode。encode方法将文本转换为标记 ID,decode方法将标记 ID 转换回文本。这段代码定义了一个类。**一、`__init__`方法**1. 它接受一个词汇表`vocab`作为参数。

2025-01-04 17:58:30 968

原创 从零开始逐步指导开发者构建自己的大型语言模型(LLM)学习笔记- 第1章 理解大型语言模型

开发阶段构建(Building):准备数据集,实现注意力机制和模型架构相关的编码。预训练(Pre - training):在大型数据集上训练模型,形成基础模型,并评估和保存模型权重。微调(Fine - tuning):根据特定任务(如分类、问答、创建聊天机器人)对模型进行调整,利用特定的指令数据集。当前应用场景公共或专有服务:如通过公共 API 访问 ChatGPT 和 Gemini 等。本地运行自定义模型:利用开源模型(如 Llama 3)在本地与模型交互。在外部服务器上部署自定义模型。

2025-01-03 23:03:12 685

原创 从零开始逐步指导开发者构建自己的大型语言模型(LLM)学习笔记-0 入学准备

该项目是《从零构建大型语言模型》一书的官方代码库,旨在指导开发者从底层开始编写代码,逐步构建类似GPT的大型语言模型(LLM)。书中详细介绍了如何处理文本数据、编码注意力机制、实现GPT模型、预训练以及微调等步骤,并提供了相应的代码示例和练习。这张图片展示了一个构建大型语言模型(LLM)及其后续应用的流程图,分为三个主要阶段:Stage 1、Stage 2 和 Stage 3。这个仓库包含了用于编码、预训练和微调类似GPT的LLM的代码,并是书籍《从零构建大型语言模型》的官方代码库。

2025-01-03 22:39:17 1274

原创 重新安装 timesFM 记录一下过程

1. 安装环境 conda create --name a310 python=3.10.152. 安装 pyenv3. 修改 .bash_profile文件在 root 下4.刷新环境变量,这时后才会生效,执行以下代码5. check6. 安装 poetry7. 安装 pyenv install 3.10.15中间出现多次报错。

2025-01-02 13:39:06 730 2

原创 使用TimesFM 对车辆销售进行预测

导入相关包与设置环境变量首先导入了如osnumpypandas等常用的 Python 库,同时设置了一些与特定库(如和)相关的环境变量,用于优化计算等操作。加载预训练的 TimesFM 模型通过指定相关超参数(如后端为gpu、每核心批处理大小等)以及预训练模型在 Hugging Face 上的仓库id,实例化了TimesFm模型对象,用于后续的评估和微调等操作。准备数据集相关信息并加载数据定义了一个数据集字典DATA_DICT,包含多个数据集(如ettm1。

2024-12-26 22:05:34 760

原创 行数据转换为list的小工具

这些变量对应的单元格内容具体用途,要根据你的实际需求来确定,从代码逻辑推测它们是用于拼接格式相关的一些字符(比如括号、分隔符、引号等),你可以根据真实的数据格式要求去调整对应单元格中的值来满足使用场景。如果要处理多列数据等情况,也需要对代码中关于列的处理部分进行相应修改。python list 则是[xxxx,xxxx] 逗号分隔,而且还要添加 " ' "数据库 select 的条件 in (xxxxx,xxx)要用逗号分隔。希望效果如下:这样以后转换就很方便。写一个 excel vba 如下。

2024-12-22 17:50:43 181

原创 数据分析时的json to excel 转换的好用小工具

有时候获取很大的 json 内容, 在网页的免费转换工具中因为数据太大不让转换如下我们可以使用简单的 python 进行转换方便阅读可以看到这里的 data 很长 处理后 excel 如下这样阅读就很方便了。

2024-12-22 11:57:42 1723

原创 TimesFM(Time Series Foundation Model)时间序列预测股市价格的数据研究(4)

1. **表示预测区间**:在很多预测任务中,模型给出的不只是一个单一的预测值(比如预测某个时间点的数值),而是一个预测区间来体现不确定性。像如果预测某商品未来销量,通过计算不同 `quantiles` 的值,能知道销量大概率(比如 90% 的置信区间,对应 0.05 和 0.95 分位数)会落在哪个范围,以及最有可能的中间值(0.5 分位数即中位数)是多少。通过比较模型输出的 `quantiles` 对应的预测区间和实际观测值落在该区间的比例等情况,可以判断模型对不确定性的把握能力。

2024-12-16 21:35:27 472

原创 TimesFM(Time Series Foundation Model)时间序列预测的数据研究(3)

1. **表示预测区间**:在很多预测任务中,模型给出的不只是一个单一的预测值(比如预测某个时间点的数值),而是一个预测区间来体现不确定性。像如果预测某商品未来销量,通过计算不同 `quantiles` 的值,能知道销量大概率(比如 90% 的置信区间,对应 0.05 和 0.95 分位数)会落在哪个范围,以及最有可能的中间值(0.5 分位数即中位数)是多少。通过比较模型输出的 `quantiles` 对应的预测区间和实际观测值落在该区间的比例等情况,可以判断模型对不确定性的把握能力。

2024-12-13 14:48:32 1045 2

原创 TimesFM(Time Series Foundation Model)安装(2)

决定在 小红帽ubuntu UBUNTU安装 timesFM在 ide.cloud.tencent.com 的环境上进行安装 环境 慎选环境,确保>16G安装Conda 3.10 python重要步骤 安装 pyenv and poetry确认已经完成安装这里安装完需要设置环境变量,如果不能看到 version 版本时Add `export PATH="/root/.local/bin:$PATH"` to your shell configuratio

2024-12-11 18:24:45 1052

原创 Excel 合并工具 将文件复制到目标工作表中与操作日志记录

指定文件夹中读取符合条件的 Excel 文件,将其中的数据按照一定规则复制到目标工作表中,并进行相关的日志记录和工作簿保存操作。先看下 excel 的结构。

2024-12-10 14:03:37 495

原创 TimesFM(Time Series Foundation Model)安装简介(1)

资料来源readme.md 内容摘要TimesFM(时间序列基础模型)是由谷歌研究开发的一种预训练时间序列基础模型,用于时间序列预测。TimesFM模型论文内容-优快云博客这篇论文提出了一种基于解码器架构的时间序列预测基础模型TimesFM,旨在通过零样本学习在多种公共数据集上实现接近于监督学习模型的预测精度。建议至少有16GB RAM来加载TimesFM依赖项TimesFM(时间序列基础模型)是由谷歌研究开发的一种预训练时间序列基础模型,用于时间序列预测。

2024-12-09 23:32:42 886

原创 TimesFM模型论文内容

这篇论文提出了一种基于解码器架构的时间序列预测基础模型TimesFM,旨在通过零样本学习在多种公共数据集上实现接近于监督学习模型的预测精度。

2024-12-09 22:45:20 896

原创 使用python 输出完整目录和文件结构的小程序folder2txt.py,输出能呈现整树状结构,并输出txt

这段代码定义了一个函数,它的目的是遍历一个指定的文件夹路径,打印出该文件夹下的所有子文件夹和文件的结构,并且将这个结构同时输出到控制台和一个文本文件中。代码使用了os.walk函数来递归地遍历文件夹,并使用了格式化字符串来构建输出的文本。

2024-12-08 11:51:45 476

原创 Qlib上手学习记录

Qlib 是一个面向人工智能的量化投资平台,其目标是通过在量化投资中运用AI技术来发掘潜力、赋能研究并创造价值,从探索投资策略到实现产品化部署。该平台支持多种机器学习建模范式,包括有监督学习、市场动态建模以及强化学习等。真的是走了很多弯路step 1. 使用 ananconda 建立环境,要主要必须是 python 3.8失败的下了以后 进入 glib folder 后执行是会报错的,不管你还什么source 都一样,整了很久使用前最好看下这个。

2024-12-07 12:55:37 1475

原创 如何低资源复刻 ChatGPT

OpenAI 可能使用 ChatGPT 用户的内容(如提示、回复、上传图像等)来改进服务,用户对话也可能被用于训练,部分用户出于隐私等考虑可能希望拥有自己的模型12。許多人出於資安考量,選擇復刻自己的ChatGPT,因為將資料上傳至OpenAI可能會導致資訊外洩。當使用者與ChatGPT對話時,這些對話可能會用於訓練模型或改善服務,且用户對於如何使用這些資料並不清楚。OpenAI的回覆指出,使用者的對話可能被AI訓練者查看,因此如果使用者有敏感資訊需要保護,他們應該避免與ChatGPT分享這些資訊。

2024-12-04 23:00:20 1044

原创 使用MySQL数据库建立常见问题的问答系统 使用语言向量SentenceTransformer模型 与 googletrans

比较,这是纯 chromadb 模型,每次需要从json 导入数据,修改从 mysql 导入数据,相关问题只需要维护在 数据库即可。使用语言向量SentenceTransformer模型 建立常见问题的问答系统-优快云博客这段代码实现了一个基于向量数据库(ChromaDB)和文本嵌入模型(SentenceTransformer)的问答系统,并通过 HTTP 服务器提供服务,用户可以向服务器发送问题,服务器会尝试在预加载的标准问题向量数据库中查找最相似的问题,并返回对应的答案。

2024-12-04 00:18:03 866

原创 常见问题QA的前端代码

这个的后端代码参见此文使用语言向量建立常见问题的模糊搜索-优快云博客这段代码实现了一个简单的问答页面,页面分为左右两部分,左侧用于展示对话记录,右侧用于用户输入问题并提交,获取答案后在对应区域显示答案,同时会将每一轮的问答信息添加到对话记录中进行展示,整体通过 HTML 结构定义页面布局,结合 JavaScript 实现交互功能。

2024-12-03 11:02:48 1085

原创 使用语言向量SentenceTransformer模型 建立常见问题的问答系统

这段代码实现了一个基于向量数据库(ChromaDB)和文本嵌入模型(SentenceTransformer)的问答系统,并通过 HTTP 服务器提供服务,用户可以向服务器发送问题,服务器会尝试在预加载的标准问题向量数据库中查找最相似的问题,并返回对应的答案。主要功能包括文本清洗、关键词提取、问题向量表示生成、在向量数据库中查询匹配问题以及选择最佳映射问题等,同时还具备从本地 JSON 文件加载数据到向量数据库的功能。

2024-12-03 10:46:30 859

原创 Python 网页控制自动化 getEdgeDriver

请注意,代码中的路径假设和正则表达式匹配是基于给定的网页结构,如果网页结构发生变化,可能需要相应调整代码。根据 edge版本号 直接引用 Microsoft 的 dirver 网页。的链接并下载该文件,最后将下载的文件解压到指定的文件夹(这里是当前目录下的。透过python 使用 edge 执行自动化时,原来的代码 出现报错了。因为 这个网站已经不再为何 对照关系,新的edge 版本就会报错。模块获取 Edge 浏览器的版本号,然后根据版本号拼凑出下载。

2024-11-30 17:54:01 587

原创 大语言模型LLM的微调中 Q&A 转换的小工具 xlsx2json.py

在训练语言模型中,需要将文件整理成规范的文档,因为文档本身会有很多不规范的地方,为了训练的正确,将文档进行规范处理。代码的功能是读取一个 Excel 文件,将其数据转换为 JSON 格式,并将 JSON 数据写入到一个文本文件中,实现了从 Excel 数据到 JSON 数据的转换,方便在其他系统或应用中使用或传输数据。最终要在模型里使用的还是json 格式,以input / output字典格式的输出为例},

2024-11-28 00:20:48 882

原创 大语言模型LLM的微调中 Q&A 转换的小工具 txt2excel.py

在训练语言模型中,需要将文件整理成规范的文档,因为文档本身会有很多不规范的地方,为了训练的正确,将文档进行规范处理文章最后附上txt的sample该 Python 代码的主要目的是将特定格式的文本文件中的问答数据读取出来,并写入到 Excel 文件中。

2024-11-28 00:12:47 1170

原创 大型语言模型LLM - Finetuning vs Prompting

资料来自台湾大学李宏毅教授机器学课程ML 2023 Spring,如有侵权请通知下架台大机器学课程ML 2023 Spring2023/3/10 课程 機器如何生成文句。

2024-11-26 23:35:00 1277

TimesFM 预测数据来源 TimesFM(时间序列基础模型)是由谷歌研究开发的一种预训练时间序列基础模型,用于时间序列预测 论文:仅解码器的时间序列预测基础模型,即将发表于ICML 2024

TimesFM(时间序列基础模型)是由谷歌研究开发的一种预训练时间序列基础模型,用于时间序列预测。 论文:仅解码器的时间序列预测基础模型,即将发表于ICML 2024。 其中使用的测试数据之一 tourism monthly

2024-12-13

用友ERP-U8普及版V3.0手册-EAI

用友ERP-U8普及版V3.0手册-EAI

2008-12-04

用友ERP-U8普及版V3.0安装说明

『安装前要准备的事项』 1.请对照U8普及版V3.0环境说明文件所描述的配置准备环境 2.安装时操作系统所在的磁盘分区剩余磁盘空间必须大于512M

2008-12-04

酷音输入法 注音输入 可以选则输出 简体 繁体

可以选则输出 简体 繁体 (New) Chewing / 新酷音計畫匯集許多開發資源,建立一系列符合自由軟體 (Free / Open Source Software)規範的智慧型注音輸入法相關軟體建設,也廣泛為繁體/正體中文使用族群所採用,而所謂的「智慧型注音輸入法」,是指接受使用者輸入注音符號與音韻,再依據上下文、使用者以往的輸入習慣,依據機率高寡或特定的挑選策略,列出並過濾使用者期望的字詞,如此的系統在台灣已風行許久,諸如自然輸入法、倚天忘形輸入法,或者微軟的新注音輸入法都是這方面的代表,然而這些都是商業軟體,並限定執行的平台。也因此,(New) Chewing / 新酷音計畫企圖以自由軟體的開發方式,並且強調多種平台的使用性,目前已經能在 MS-Windows、Linux、 FreeBSD、Solaris,以及 Mac OS X 等平台運作,並廣泛支援多種輸入法架構。

2008-10-14

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除