AI与区块链
文章平均质量分 88
AI与区块链技术
碧海饮冰
南有乔木,且行且休思
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
PaddleX服务化部署精度低于命令行调用的原因及解决方案
PaddleX服务化部署精度低于命令行调用的主要原因是默认参数配置差异。命令行中禁用了文档方向分类、图像矫正等预处理步骤,而服务化部署时这些功能可能默认启用。 解决方案: 导出PP-StructureV3流水线默认配置文件 修改配置文件,将相关预处理参数设为False 使用修改后的配置文件启动服务 通过统一配置参数,服务化部署的精度将与命令行调用保持一致。关键是要确保服务运行时配置与命令行成功配置完全相同。原创 2025-09-26 21:26:54 · 1001 阅读 · 0 评论 -
大模型微调技术及训练步骤
大模型微调技术主要分为全面微调和参数高效微调(PEFT)两类。全面微调更新所有参数,适合数据充足、任务差异大的场景但成本高;PEFT方法如LoRA、Adapter等通过添加少量参数实现高效调整。训练步骤包括数据准备、模型选择、结构调整、参数设置和评估优化。此外,模型压缩技术如剪枝(结构化/非结构化)和蒸馏(软标签/特征/关系)可进一步减小模型体积并提升效率,常组合使用以达到最佳效果。这些技术为不同应用场景提供了灵活的模型优化方案。原创 2025-06-19 17:08:39 · 1378 阅读 · 0 评论 -
市面常见的大模型各自采用了何种架构
本文系统梳理了大模型主流架构及应用情况。架构方面包括Encoder-Decoder(如T5)、CausalDecoder-only(如GPT)、PrefixDecoder(如GLM)、稀疏架构(如Longformer)和混合架构(如DeepSeek-MoE)。主流模型对照显示,GPT-4等采用CausalDecoder,Gemini1.5结合Encoder-Decoder与MoE,Mixtral使用纯MoE架构。原创 2025-06-19 17:28:34 · 922 阅读 · 0 评论 -
这样说,小白也能理解transformer架构,还有RLHF/LORA/LOSS/量化/模型蒸馏等术语
小白也能理解transformer架构,还有RLHF/LORA/LOSS/量化/模型蒸馏等术语原创 2025-04-03 08:30:00 · 2838 阅读 · 0 评论 -
LangChain/Eliza框架在使用场景上的异同,Eliza通过配置实现功能扩展的例子
LangChain/Eliza框架在使用场景上有何异同,Eliza通过配置实现功能扩展的例子原创 2025-04-02 11:29:03 · 1153 阅读 · 0 评论 -
Crypto加密货币生态构成及较有前景的几个crypto项目
Crypto加密货币生态构成及较有前景的几个crypto项目原创 2025-04-01 10:32:57 · 2028 阅读 · 0 评论 -
DeFi项目的落地场景以及它与Dex的关系
DeFi项目的落地场景以及它与Dex的关系原创 2025-03-30 09:30:00 · 1074 阅读 · 0 评论 -
web3包含哪些关键技术栈,一些成功使用场景的分享
web3包含哪些关键技术栈,一些成功使用场景的分享原创 2025-03-28 00:48:08 · 2017 阅读 · 0 评论 -
波场TRON的价值和生态了解与零知识证明的作用
通过上述机制,零知识证明正在成为平衡数据可用性与隐私保护的核心技术工具,覆盖金融、医疗、物联网等20余个行业。例如,用户可通过零知识证明向交易所证明“账户余额大于1000美元”,而无需透露具体金额或账户信息。零知识证明(Zero-Knowledge Proof, ZKP)是一种密码学协议,允许。证明某个声明的真实性。在不透露任何具体信息的前提下,向。原创 2025-03-29 11:10:55 · 1074 阅读 · 0 评论 -
XAgent的部署及运行
国产agent之光-XAgent智能体的部署与运行填坑入门指南原创 2023-12-19 16:38:12 · 4006 阅读 · 2 评论 -
国产ToolLLM的课代表---OpenBMB机构(清华NLP)旗下ToolBench的安装部署与运行(附各种填坑说明)
ToolBench的安装部署与运行,够详细,且附新人学习的各种填坑说明原创 2023-12-19 16:02:13 · 2138 阅读 · 0 评论 -
ToolLLM model 以及LangChain AutoGPT Xagent在调用外部工具Tools的表现对比浅析
文章主要谈及主流ToolLLM以及高口碑Agent技术的一些对比,框架先上,内容还在不断丰富与更新。原创 2023-12-15 12:53:12 · 1367 阅读 · 1 评论
分享