- 博客(248)
- 资源 (17)
- 收藏
- 关注

原创 恒温恒湿节能算法讲解
通过上述计算示例,我们看到人员散热在恒温恒湿车间的总热负荷计算中占有重要位置。实际应用中,应根据员工的实际活动水平、工作时间、以及是否穿戴特殊防护装备等因素综合考虑,适当调整人员散热的计算值,以确保空调系统设计更加精确和节能。
2024-10-21 13:19:15
663
原创 通过conda安装unsloth
通过以上步骤,你可以在本地环境中使用 Conda 安装并使用 Unsloth。如果你在安装或使用过程中遇到问题,可以参考 Unsloth 的。
2025-03-23 19:23:00
1045
原创 搭建AI工作流:DeepSeek+Dify自动化实战指南
(或者使用本地搭建的模型也可以,往期文章里也有部署教程,本文尽量让无编程经验的文科生也可以实现自动化处理日常任务,所以使用api更加简单)简介API 可以简单理解成某个功能,为了开放给其他人使用,所以指定了一个网络地址,用户只需要请求这个地址,就可以使用该功能,并得到该功能处理后返回的数据。API申请指引DeepSeek | 深度求索点击右上角的API开放平台,进行注册账号进来后就会发现送了10元额度点击左侧菜单的API keys,点击创建API key,输入任意名字,点击创建。
2025-03-23 19:21:50
1388
原创 Unsloth大模型微调指南
Unsloth使 Llama-3、Mistral、Phi-3 和 Gemma 等 LLM 的微调速度提高 2 倍,内存使用量减少 70%,并且准确度不会降低!我们将在本教程中使用提供免费 GPU 的 Google Colab。(我们将使用的笔记本)CSV/Excel Ollama 指南你还需要登录 Google 帐户!Ollama 可让你快速简单地从自己的计算机运行语言模型!它会悄悄启动一个程序,该程序可以在后台运行 Llama-3 等语言模型。
2025-03-21 16:58:24
757
原创 PicGo安装与配置-Gitee图床
平时使用Typora写文章,上传文章到第三方平台上去都要把图片一个一个上传上去,于是我就百度了有没有什么方法可以省略这一步骤,我发现Typora可以用PicGo+Gitee图床方式,这个挺容易的,我把安装的过程在此记录下来。PicGo是一个用于快速上传图片并获取图片 URL 链接的工具。
2025-03-21 14:46:35
1075
转载 把AI带回家:DeepSeek-R1本地部署指南!再也不怕宕机了
非必需(纯 CPU 推理),若 GPU 加速可选 4GB+ 显存(如 GTX 1650): 24GB+ 显存(如 A100 40GB 或双卡 RTX 3090): 多卡并行(如 2x A100 80GB 或 4x RTX 4090): 16GB+ 显存(如 RTX 4090 或 A5000): 推荐 8GB+ 显存(如 RTX 3070/4060): 3GB+ 存储空间(模型文件约 1.5-2GB): 8 核以上(推荐现代多核 CPU): 8GB+(模型文件约 4-5GB)
2025-02-13 17:38:18
93
原创 第九章 数据采集
数据埋点为数据指标体系的构建提供数据支撑,是数据指标体系构建中的关键环节。数据埋点是各大App和网站通过一系列的代码采集用户的操作行为的数据,供给数据分析师进行分析以知道业务决策的动作。埋点可以记录用户的操作行为,包括谁、在什么业务场景、什么时间、做了什么事情。数据埋点对数据指标体系的构建有重要作用,数据分析师了解数据埋点对数据指标体系构建工作的开展大有裨益。如下图,通过数据埋点收集用户行为数据的过程涉及三个不同的主体,分别是用户、客户端以及服务器。
2025-02-13 09:24:54
716
原创 用AnythingLLM和Deepseek搭建个人知识库
用Rag技术搭建一个本地的个人助手,使用的是AnythingLLM+DeepSeek的组合。体验下来,这个只能作为或体验之类的,很难真正实现一个工程性需求。
2025-02-05 17:10:25
1461
原创 第七章 数据指标体系构建方法论
数据指标体系构建的方法总结为四个步骤,①目标化,明确业务目标,梳理业务北极星指标;②模块化及流程化,梳理业务流程,明确核心指标;③层级化,数据指标分级下钻;④维度化,维度选择实现数据指标的上卷下钻。这四个步骤又涉及OSM、AARRR、UJM、MECE这四个模型,这四个模型指导我们构建完整而清晰得数据指标体系的方法论。添加数据分析维度,能够让数据分析师从更多的角度拆解数据指标以定位数据异动。维度并不是随意选择的,需要根据业务场景选择最适合的几种分析维度,已达到编辑效应最大化。
2025-01-27 14:07:55
752
原创 第二章 数据指标管理
用户规模指标和用户行为指标是大部分产品都会关注的通用指标,除此之外,从业务视角出发,基于不同业务形态需要关注的数据指标也各有侧重。
2025-01-26 13:32:27
671
原创 第一章 数据指标体系简介
按照业务逻辑可以降指标分为北极星指标、结果指标、过程指标、运营指标以及监控指标。北极星指标是指不同发展阶段指引业务发展的重要指标,是业务目标的指向灯。对北极星指标进行业务目标的拆分,可以得到各个指向业务结果的子目标,成为结果指标。达成业务结果的过程中涉及的数据指标称为过程指标。有些指标并不能划归到结果指标或者过程指标中,如商品库存是电商行业的重要指标,但是不属于结果指标和过程指标,但是不可获取,可以将其归入运营指标。监控指标是业务外部不可控的因素,涉及但不限于竞品、汇率、市场等方面。
2025-01-26 10:41:01
1411
原创 一分钟了解氢能
氢燃料电池系统的关键零部件,如电堆、催化剂、膜电极、双极板、密封材料等,我国目前已能够实现国产化,主要问题也是规模化、批量生产的产业链还未完全形成,成本较高。该方法在输送、储存、消费过程中不发生相变,能量损失小,但一次输送的量也比较少,适合距离较近、输送量少的场合。氢的储存是一个至关重要的技术,已经成为氢能利用走向规模化的瓶颈。氢能的运输主要包括压缩氢气的运输、液态氢的运输、利用储氢介质输送、利用管道输送和制造原料的输送。3、氢的发热值高,是汽油的3倍,也是所有化石燃料、化工燃料和生物燃料中最高的。
2024-02-13 21:10:50
369
原创 关于氢能,什么是绿氢、蓝氢、灰氢?
16世纪中叶,瑞士科学家无意中从中发现了一种可以燃烧的气体,1766年,在论文中阐述了他对这种可燃气体的实验研究,并通过化学反应制取此种气体。时间来到1787年,法国科学家用“氢”来命名这种可燃气体。至此,氢气登上历史舞台。科学家发现一种可燃性气体氢(Hydrogenium),是一种化学元素,元素符号H,在元素周期表中位于第一位。氢通常的单质形态是氢气,无色无味无臭,是一种极易燃烧的由双原子分子组成的气体,,也是宇宙中最为丰富、最轻的物质。医学上用氢气来治疗疾病。氢气的。
2024-02-13 21:07:47
534
原创 CCUS技术概述和应用意义
IEA研究表明,基于2070年实现净零排放目标,到2050年,需要应用各种碳减排技术将空气中的温室气体浓度限制在450 ppm以内,其中CCUS的贡献为9%左右,即利用CCS技术捕集的CO2总量将增至约56.35亿吨,其中利用量为3.69亿吨,封存量为52.66亿吨。其中,捕集阶段是能耗和成本最高的环节。对于炼化、气电、水泥和钢铁行业来说,要想实现在生产过程中的深度减排,CCUS技术是必不可少的,而且是可再生能源电力和节能技术不可替代的,对于我国践行低碳发展战略和实现绿色发展至关重要。
2024-02-08 13:16:34
755
原创 各种能源折标准煤参考系数
16 726~17 981千焦/(4 000~4 300千卡)/立方米。8 363~12 545千焦/(2 000~3 000千卡)/千克。41 816千焦/(10 000千卡)/千克。41 816千焦/(10 000千卡)/千克。43 070千焦/(10 300千卡)/千克。43 070千焦/(10 300千卡)/千克。50 179千焦/(12 000千卡)/千克。41 816千焦/(10 000千卡)/千克。20 908千焦/(5 000千卡)/立方米。20 908千焦/(5 000千卡)/千克。
2024-02-08 13:13:24
893
原创 二、什么是碳配额
碳配额,通常指的是政府或国际协议设定的一种排放上限,用于限制企业或国家在一定时间内可以释放到大气中的二氧化碳和其他温室气体的总量。这种制度是应对全球气候变暖的重要手段之一,旨在通过控制和减少温室气体排放来减缓气候变化的速度。
2024-02-07 15:47:32
374
原创 # 一、什么是碳管理
碳管理是指通过系统地监测、报告和减少温室气体排放,以提高能源效率、降低碳排放强度和减缓气候变化影响的过程。碳管理的目的是帮助企业和组织在经济、社会和环境层面实现可持续发展,同时遵守相关法规和政策要求。碳排放监测:通过收集和分析数据,了解企业或组织的碳排放情况,为制定减排策略提供依据。碳排放报告:根据相关法规和标准,定期向政府部门、监管机构和公众报告碳排放数据。碳排放减少:通过技术创新、管理优化和行为改变等手段,降低碳排放强度,实现减排目标。
2024-02-07 15:37:32
414
原创 储能技术:未来能源系统的关键
储能技术是实现可持续能源系统的重要组成部分。随着可再生能源的快速发展,如太阳能和风能,储能技术的需求也在不断增加。储能技术可以帮助平衡供需,提高电网的稳定性和可靠性,降低电力成本,减少对化石燃料的依赖,从而推动能源转型。
2024-01-19 14:48:13
198
原创 1401 位置编码公式详细理解补充
Self-Attention:对于每个词而言都是无位置关系,把每个词的顺序打乱,得到的注意力值依然不变。通过 t1 告诉你,x1 是在前面,x2 在 x1 的后面。
2023-10-26 06:51:04
303
原创 19 Transformer 解码器的两个为什么(为什么做掩码、为什么用编码器-解码器注意力)
测试阶段:解码器也会有输入,但是此时,测试的时候是不知道目标语句是什么的,这个时候,你每生成一个词,就会有多一个词放入目标语句中,每次生成的时候,都是已经生成的词(测试阶段只会把已经生成的词告诉解码器)为了匹配,为了解决这个 gap,masked Self-Attention 就登场了,我在训练阶段,我就做一个 masked,当你生成第一个词,我啥也不告诉你,当你生成第二个词,我告诉第一个词。Q 是源语句,K,V 是已经生成的词,源语句去已经生成的词里找重点 ,找信息,已经生成的词里面压根就没有下一个词。
2023-10-26 06:43:30
272
原创 17 Transformer 的解码器(Decoders)——我要生成一个又一个单词
编码器在干吗:词向量、图片向量,总而言之,编码器就是让计算机能够更合理地(不确定性的)认识人类世界客观存在的一些东西。训练阶段:目标词“我是一个学生”是已知的,然后 Self-Attention 是对“我是一个学生” 做计算。假如目标词“我是一个学生”—》masked Self-Attention。如果做 masked,Self-Attention 第一次对“我”做计算。解码器会接收编码器生成的词向量,然后通过这个词向量去生成翻译的结果。如果不做 masked,每次训练阶段,都会获得全部的信息。
2023-10-22 09:09:53
276
原创 15 Transformer 框架概述
预训练–》NNLM–》word2Vec–》ELMo–》AttentionNLP 中预训练的目的,其实就是为了生成词向量顺水推舟,transformer 其实就是 attention 的一个堆叠从一个宏观的角度,去看 transformer 到底在干嘛,然后在细分,再作总结总分总seq2seq一句话,一个视频序列(编码器)到序列(解码器)分成两部分,编码器和解码器。
2023-10-22 09:09:15
197
原创 16 Transformer 的编码器(Encodes)——我在做更优秀的词向量
》Feed Forward,Relu(w2(w1x+b1)+b2),(前面每一步都在做线性变换,wx+b,线性变化的叠加永远都是线性变化(线性变化就是空间中平移和扩大缩小),通过 Feed Forward中的 Relu 做一次非线性变换,这样的空间变换可以无限拟合任何一种状态了),得到 r1(是 thinking 的新的表征)1,x 就没了,【w3(w2(w1x+b1)+b2)+b3+x】),归一化(LayerNorm),做标准化(避免梯度爆炸),得到了深粉色的 z1。seq(编码器)2seq(解码器)
2023-10-21 16:57:43
247
原创 15 Transformer 框架概述
预训练–》NNLM–》word2Vec–》ELMo–》AttentionNLP 中预训练的目的,其实就是为了生成词向量顺水推舟,transformer 其实就是 attention 的一个堆叠从一个宏观的角度,去看 transformer 到底在干嘛,然后在细分,再作总结总分总seq2seq一句话,一个视频序列(编码器)到序列(解码器)分成两部分,编码器和解码器。
2023-10-21 16:57:10
375
原创 14 Positional Encoding (为什么 Self-Attention 需要位置编码)
既然可以并行,也就是说,词与词之间不存在顺序关系(打乱一句话,这句话里的每个词的词向量依然不会变),即无位置关系(既然没有,我就加一个,通过位置编码的形式加)pos+K=5,我在计算第 5 个单词的位置编码的时候。
2023-10-21 16:56:09
323
原创 13 Multi-Head Self-Attention(从空间角度解释为什么做多头)
multi-head attention(1231,23,3),把 X 切分成 8 块(8 个子空间),这样一个原先在一个位置上的 X,去了空间上 8 个位置,通过对 8 个点进行寻找,找到更合适的位置。给定一个 X,通过自注意力模型,得到一个 Z,这个 Z 就是对 X 的新的表征(词向量),Z 这个词向量相比较 X 拥有了句法特征和语义特征。Z 相比较 X 有了提升,通过 Multi-Head Self-Attention,得到的。多头自注意力,问题来了,多头是什么,多头的个数用 h 表示,一般。
2023-10-21 16:55:32
168
原创 12 Masked Self-Attention(掩码自注意力机制)
当我们做生成任务的时候,我们也想对生成的这个单词做注意力计算,但是,生成的句子是一个一个单词生成的。自注意力机制明确的知道这句话有多少个单词,并且一次性给足,而掩码是分批次给,最后一次才给足。为什么要做这个改进:生成模型,生成单词,一个一个生成的。未来我们讲 Transformer 的时候会详细讲!I have 第二次,只有 I 和 have。I 第一次注意力计算,只有 I。掩码自注意力机制应运而生。
2023-10-21 16:54:56
846
原创 11 Self-Attention相比较 RNN和LSTM的优缺点
Self-Attention 得到的新的词向量具有句法特征和语义特征(词向量的表征更完善)LSTM 通过各种门,遗忘门,选择性的可以记忆之前的信息(200 词)无法做长序列,当一段话达到 50 个字,效果很差了。RNNs 长序列依赖问题,无法做并行。
2023-10-21 16:53:57
759
1
原创 LLAMA2(Meta大语言模型)可运行整合包的下载与安装
百度网盘链接:https://pan.baidu.com/s/1g1xknRdeHWPsAeZl9urXxg?百度网盘链接:https://pan.baidu.com/s/19gPNTTPc6cAdM2DLfmaE0w?根据你的系统,把generation_linux.py或者generation_win.py修改为generation.py。夸克网盘链接:https://pan.quark.cn/s/b6ceb2c6211b。1)进入工程目录运行download.sh。2)填入收到的邮件中的链接。
2023-09-26 22:39:08
6194
原创 Windows系统下环境安装
百度网盘链接:https://pan.baidu.com/s/1lbqhpIx-CAcBUfwSCjMNaA?参考文档:https://blog.youkuaiyun.com/jcfszxc/article/details/124004147。64位:http://www.winimage.com/zLibDll/zlib123dllx64.zip。32位:http://www.winimage.com/zLibDll/zlib123dll.zip。网络上有方法,是将cuDNN的文件存放CUDA的文件夹中,可供参考。
2023-09-26 22:38:36
213
原创 ChatGLM2_6b安装
在【api.py】、【web_demo.py】与【cli_demo.py】这3个文件中,指定模型文件的位置, AutoModel.from_pretrained(**量化后的模型:**如果你的内存不足,可以直接加载量化后的模型,即【chatglm2-6b-int4】文件夹内的模型。, trust_remote_code=True) 原文中模型路径的写法会实时去下载模型,建议修改成指向本地已经下载好的模型文件。【安装文件_备用】中可能用到的安装文件,如果没有安装的,可以安装一下。
2023-09-07 11:51:03
439
1
原创 chatGLM-Windows环境安装
百度网盘链接:https://pan.baidu.com/s/1lbqhpIx-CAcBUfwSCjMNaA?参考文档:https://blog.youkuaiyun.com/jcfszxc/article/details/124004147。64位:http://www.winimage.com/zLibDll/zlib123dllx64.zip。32位:http://www.winimage.com/zLibDll/zlib123dll.zip。网络上有方法,是将cuDNN的文件存放CUDA的文件夹中,可供参考。
2023-09-07 11:50:09
445
原创 chatGLM介绍
ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。基于 Multi-Query Attention 技术,ChatGLM2-6B 有更高效的推理速度和更低的显存占用:在官方的模型实现下,可以在消费级的显卡上运行。
2023-09-07 11:49:11
838
原创 稚晖君人形机器人问世:大模型加持,会自己换胳膊,要上生产线造车
在框架中,机器人系统被分为不同层级,包括部署在云端的超脑,部署在端侧的大脑、小脑以及脑干,分别对应机器人任务不同级别的技能,包括技能级、指令级、伺服级等。在当前的具身智能领域,很多研究都在尝试将大模型作为机器人的大脑,稚晖君也不例外,他也想用多模态大模型的能力赋能智元机器人的行为动作编排。稚晖君表示:「远征 A1 是我们的第一台通用型智具身智能机器人,它融合了各种先进的本体控制、感知、认知和决策的智能技术,基于当前 AI 领域前沿的大语言模型,以及我们自研的视觉控制模型,完成了一系列创新。
2023-08-19 08:49:39
288
原创 06 Word2Vec模型(第一个专门做词向量的模型,CBOW和Skip-gram)
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-pJRvexww-1691494480791)(https://imgmd.oss-cn-shanghai.aliyuncs.com/BERT_IMG/%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B.jpg)]NNNL --》 重点是预测下一词,双层感知机softmax(w2(tanh((w1(xQ)+b1)))+b2)
2023-08-08 19:35:07
1374
原创 05 神经网络语言模型(独热编码+词向量的起源)
神经网络语言模型:通过神经网络解决两个人说的话的问题有一个副产品:Q 矩阵–》新的词向量(词向量可以选择词向量的维度,可以求两个词之间的相似程度)下游任务。
2023-08-08 19:34:32
429
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人