自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

转载 BotSharp 5.0 MCP:迈向更开放的AI Agent框架

BotSharp框架自诞生以来,经历了多个版本的迭代与优化。从最初的基础功能搭建,到逐步完善的各种模块和工具集成,它一直在不断演进以满足日益增长的AI Agent开发需求。每个版本都在性能、功能和易用性方面取得了显著的进步,为开发者提供了更加便捷和高效的开发体验。BotSharp 5.0 的 MCP 支持标志着其正式成为 .NET 生态中 首个深度集成标准化 AI 通信协议 的多智能体框架。开发者可通过此升级更便捷地构建符合企业安全规范的复杂 AI 系统,同时受益于微软与开源社区共同维护的技术栈。

2025-05-30 11:36:36 32

转载 探秘Transformer系列之(18)--- FlashAttention

Transformer架构的核心是自注意力机制这个强大的组件。然而,自注意力机制的执行速度很慢,并且内存占用很大,特别是在处理长上下文长度时。对于Transformer模型,假设其输入序列长度为N,则其Transformer模型的计算复杂度和空间复杂度都是ON2O(N^2),即模型的计算量和存储空间随着序列长度N呈二次方增长。

2025-05-01 11:59:03 774

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除