
大模型知识札记
文章平均质量分 89
大模型学习过程中的知识整理、札记.
魔王阿卡纳兹
喜欢烟雨江南的书!
展开
-
AI绘画中的LoRa是什么?
LoRa采用线性扩频调制技术,不仅继承了FSK调制模式的低功耗特性,还进一步扩展了通信距离,增强了网络抗干扰能力。在拉丁语中,“Lora”意为“胜利与荣誉”,而在希腊语中则有“光”或“火炬”的含义。在中国,LoRa技术已逐渐成为LPWA技术体系的重要组成部分,并在多个行业实现商业化应用。在音乐领域,Lora是一位来自伦敦的杰出歌手兼钢琴家,她以轻松悦耳的音乐风格闻名,并在全球范围内举办过许多重要活动。综上,Lora可以指代LoRa技术、LoRA AI绘画模型、名字或特定领域的个体。原创 2025-04-05 22:55:51 · 509 阅读 · 0 评论 -
CKPT文件是什么?
总结起来,ckpt检查点是一种重要的技术手段,其核心作用是记录系统或数据的当前状态,以便在中断或异常情况下能够快速恢复。在Oracle数据库中,ckpt(CheckPoint)是一个后台进程,负责触发检查点事件,从而将脏缓冲区中的数据写入磁盘,并更新数据文件头和控制文件中的检查点信息。在并行计算中,ckpt检查点用于记录并行任务的执行状态,以便在任务中断后能够恢复到最近的状态继续执行。在机器学习领域,ckpt检查点主要用于保存模型的中间状态,以便在训练中断后能够从中断的地方继续训练。原创 2025-04-05 22:49:34 · 1043 阅读 · 0 评论 -
MCP有哪些比较好的资源?
Smithery 是一个全面的MCP服务器集合,收录了2211个MCP服务器,并提供了安装命令和GitHub仓库链接。mcp.so 是一个专注于展示最新MCP服务器、客户端和Feed的平台,用户可以在此提交自己的MCP服务器并查看其他用户的贡献。AIbase 提供了一个国内优质的MCP资源导航网站,集合了丰富的MCP服务器和客户端资源,并附带详细的开发文档和教程。这是一个分类整理的MCP服务器列表,包含多个领域的资源,如文件系统、数据库、搜索引擎等。这是一个活跃的开发者社区,适合希望与同行互动的用户。原创 2025-04-04 22:28:59 · 473 阅读 · 0 评论 -
DeepSeek 开源的 3FS 如何?
3FS旨在解决AI领域中海量数据存储与高速访问的挑战,通过整合现代固态硬盘(SSD)和远程直接内存访问(RDMA)网络技术,最大化硬件带宽利用率。其设计目标是简化分布式应用的开发,提升AI训练与推理的效率。例如,在DeepSeek V3和R1模型中,3FS被用于数据预处理、检查点操作及推理加速。3FS通过硬件协同设计与软件创新,显著提升了AI任务的效率,其开源标志着分布式存储领域的技术突破。未来,随着AI模型规模的持续扩大,3FS或将成为行业基础设施的重要组件,推动“以存代算”范式的普及。原创 2025-04-02 22:07:23 · 919 阅读 · 0 评论 -
DeepSeek 都开源了哪些技术?
DeepSeek的开源项目覆盖从硬件加速、模型训练到应用集成的全链条,其技术先进性与社区影响力已得到广泛认可。未来,随着更多项目开源,DeepSeek或将继续引领AI基础设施的创新浪潮。原创 2025-04-02 22:03:18 · 1910 阅读 · 0 评论 -
通义万相2.1 你的视频创作之路
通义万相2.1是阿里巴巴达摩院研发的多模态生成式AI模型,以视频生成为核心,同时支持图像、3D内容及中英文文字特效生成。复杂动作与物理规律建模能够稳定生成包含人体旋转、跳跃、翻滚等复杂动作的视频,并精准还原碰撞、反弹、切割、挤压等物理现象(如雨滴落在伞面溅起水花的细节)。多语言视频特效与艺术风格转换支持中英文文字视频生成,提供粒子效果、过渡动画等特效选项,并可一键切换影视质感、水墨画风等艺术风格。无限长1080P视频编解码。原创 2025-03-31 23:36:28 · 766 阅读 · 0 评论 -
有哪些开源的视频生成模型
这些模型的开源降低了AI视频生成门槛,推动了多领域创新,未来将进一步缩小与闭源模型的差距。原创 2025-03-31 23:25:20 · 884 阅读 · 0 评论 -
H100的卡 需要多少才能有10P的算力
要确定需要多少块NVIDIA H100 GPU才能达到10 PetaFLOPS(10P)的算力,需结合其浮点计算性能指标进行理论推导和实际场景分析。原创 2025-03-28 14:46:39 · 1062 阅读 · 0 评论 -
TF32 与 FP32 的区别
通过结合TF32的高效性和FP32的精度,混合精度训练已成为AI领域的标准实践,未来随着硬件迭代,TF32或进一步替代FP32成为AI计算的主流格式。TF32(Tensor Float 32)与FP32(单精度浮点数)是两种用于深度学习和高性能计算的浮点格式,其核心区别体现在。原创 2025-03-28 14:43:38 · 710 阅读 · 0 评论 -
异构算力是什么,谁能支持?
硬件层:通过资源池化与融合架构实现灵活配置。软件层:CUDA、OpenCL等框架降低开发门槛,国产工具链加速生态自主化。服务层:主流云厂商提供即用型异构算力产品,覆盖AI、科学计算等场景。未来随着算力网络与开源生态的成熟,异构算力将更深度赋能千行百业。原创 2025-03-28 10:46:21 · 797 阅读 · 0 评论 -
Meta 语言翻译大模型
模型组成与开源情况:专注于保留语音的韵律、情感和说话风格(如耳语、悲伤等情绪表达)。:实现延迟仅2秒的实时语音翻译,支持流式处理。:作为基础模型,支持多模态翻译(语音↔文本),覆盖100+语言。Seamless:前三者的融合版本,兼具实时性、多语言性和情感表达。前三个模型已在GitHub和Hugging Face开源。技术突破实时性:语音转换延迟低于2秒,接近离线模型准确率。情感保留:通过PRETSSEL和Prosody UnitY2技术捕捉语速、停顿等细节。安全性。原创 2025-03-26 16:55:21 · 624 阅读 · 0 评论 -
AIAgent有哪些不错的开源平台
AutoGPT 是一个基于 OpenAI 的 GPT-4 和 GPT-3.5 大型语言模型的开源框架,能够根据用户给定的目标自动生成所需提示,并利用多种工具 API 执行多步骤任务。这些开源平台和框架涵盖了从基础开发到高级应用的多种需求,开发者可以根据具体需求选择合适的工具进行 AI Agent 的开发和部署。SuperAGI 是 AutoGPT 的更灵活、用户友好的替代品,包含构建、维护和运行自己的代理所需的所有组件。XAgent 是一个实验性的大型语言模型驱动的自主代理框架,具有更高的可控性和扩展性。原创 2025-03-18 23:52:13 · 576 阅读 · 0 评论 -
微软开源神器OmniParser V2.0 介绍
微软开源的OmniParser V2.0是一款功能强大且应用广泛的AI工具,它通过高效的视觉解析技术和多模型支持,显著提升了AI智能体的操作能力和效率。无论是自动化办公、艺术创作还是软件测试,OmniParser V2.0都展现了其巨大的潜力和价值。同时,开源策略也为开发者提供了更多的可能性,推动了AI技术的创新与发展。提升GUI自动化效率OmniParser V2.0通过将屏幕截图转换为结构化元素,显著提升了大型语言模型(LLM)对图形用户界面(GUI)的解析能力。原创 2025-03-14 23:32:58 · 1006 阅读 · 0 评论 -
什么是提示词工程,有哪些开源项目
LangGPT通过结构化和模板化的方法,将复杂的提示词设计过程转化为简单、直观的操作步骤,显著降低了学习门槛并提高了效率。同时,其灵活性、交互友好性和社区支持也为用户提供了强大的工具支持,使其能够高效地设计和优化高质量的AI提示词。例如,LangGPT通过内置的经典提示句和格式法等基础方法论,保证了生产的初版提示词的质量。PromptRange是一个构建服务于提示词工程的生态系统的项目,包含提示词调优工具库、提示词靶场平台以及基于移动互联网和微信的外部终端接入。原创 2025-03-14 23:29:40 · 801 阅读 · 0 评论 -
MCP服务协议详细介绍
MCP(Model Context Protocol)是一种开放协议,旨在连接大型语言模型(LLMs)与外部数据源或工具。通过标准化接口,MCP使AI模型能够安全地与本地和远程资源进行交互,从而提升数据交互效率和安全性。原创 2025-03-13 21:49:03 · 1185 阅读 · 0 评论 -
Browser-Use无缝连接AI 代理与浏览器的Python工具
Browser-Use 是一个开源的 Python 库,旨在通过 AI 代理与浏览器的无缝连接,实现网页自动化操作。它为开发者提供了一个强大且简单的工具,使 AI 能够像人类一样浏览和操作网页,从而完成复杂的任务。原创 2025-03-12 07:47:53 · 1213 阅读 · 0 评论 -
LLM-Align 技术原理和使用 介绍
LLM-Align 是一种创新的基于 LLM 的对齐技术,通过利用 LLM 的指令遵循能力和零-shot 能力,结合多轮投票机制和知识融合方法,实现了高效且准确的实体对齐。其在知识图谱构建、跨领域知识整合和自动化对齐工具开发等方面具有重要的应用价值。多轮对话与投票机制LLM-Align 通过多轮对话和投票机制来提高对齐质量。在每一轮中,LLM 会生成多个候选答案,并通过投票机制选择最终结果。原创 2025-03-06 19:06:31 · 813 阅读 · 0 评论 -
采用大模型技术进行知识图谱实体对齐的技术和开源项目
LLM-Align 是一种基于大型语言模型(LLM)的实体对齐方法,利用 LLM 的指令遵循和零-shot 能力进行实体对齐推断,并通过多轮投票机制提高对齐质量。ChatEA 是一种结合大模型改进实体对齐的方法,利用大模型的背景知识和推理能力增强基于知识表示的实体对齐。CG-MuAlign 是一种基于图神经网络(GNN)的多类型实体对齐方法,利用邻域信息泛化到未标记的类型。这些技术和开源项目展示了大模型在知识图谱实体对齐中的广泛应用,从自动化对齐到增强推理能力,均体现了大模型技术在知识图谱领域的巨大潜力。原创 2025-03-06 18:02:06 · 1092 阅读 · 0 评论 -
大模型能给舆情分析带来哪些突破?
例如,通过二分类或多分类神经网络模型,大模型可以分析文本数据的情感倾向,并识别出公众对特定事件或政策的态度。在危机管理中,大模型可以实时监测舆情动态,及时发出预警信号,并根据分析结果制定科学的应对策略,以最大程度减轻危机带来的负面影响。大模型在舆情分析中的应用不仅提升了分析的精度和效率,还实现了自动化报告生成、情感分析、趋势预测和危机管理等多方面的突破。未来,大模型有望实现更加精准的情感分析和观点挖掘,并能够预测舆论走势,为企业和政府提供更全面的支持。这一阶段的目的是将原始文本转化为适合模型训练的格式。原创 2025-03-01 23:50:29 · 1477 阅读 · 0 评论 -
大模型训练微调技术介绍
微调(Fine-tuning)是指在预训练模型的基础上,利用少量特定领域数据进行二次训练的过程。其核心思想是利用预训练模型已经学习到的通用知识和特征,通过调整模型参数来适应新任务或数据集。微调的优势在于能够显著减少训练时间和计算资源的消耗,同时提升模型在实际任务中的表现。原创 2025-02-28 19:11:45 · 715 阅读 · 0 评论 -
vllm的使用方式,入门教程
vLLM是一个强大且易于使用的推理框架,适用于多种场景。通过上述步骤,您可以快速上手并开始使用vLLM进行大语言模型推理。如果遇到问题,可以参考官方文档或社区资源进行解决。全参数微调(Full-Parameter Fine-Tuning)vLLM支持对预训练模型进行全参数微调,以适应特定任务或数据集。这种方法通过调整所有模型参数来优化性能,适用于需要大量数据和计算资源的场景。LoRA是一种高效、快速且参数效率高的微调方法,特别适用于资源有限的环境,如移动应用或边缘设备。原创 2025-02-27 00:09:54 · 2576 阅读 · 0 评论 -
微信接入DeepSeek后有哪些场景,为我们带来了哪些启发
企业微信集成DeepSeek后,不仅提升了企业的协作效率和客户体验,还通过智能化服务和低成本获客等方式,显著降低了运营成本,推动了企业的数字化转型。这些实际案例和效果充分展示了DeepSeek在企业微信生态中的广泛应用和巨大潜力。微信接入DeepSeek不仅提升了用户体验,还为AI技术的应用和生态系统的构建提供了新的思路和方向。未来,随着技术的不断进步和应用场景的拓展,DeepSeek有望在更多领域发挥重要作用。原创 2025-02-25 23:53:40 · 1446 阅读 · 0 评论 -
什么是AI agent技术,有哪些著名案例
AI Agent是人工智能代理的简称,其核心是通过大型语言模型(LLM)作为引擎,实现自主性、适应性和交互性。AI Agent能够感知环境、做出决策并执行任务,从而在复杂多变的环境中独立运作。原创 2025-02-25 23:50:35 · 1306 阅读 · 0 评论 -
DeepSeek开源周-第一项FlashMLA
FlashMLA是一款由DeepSeek精心打造的高效解码内核,专门针对NVIDIA的Hopper GPU进行优化。它不仅能够处理那些长度不固定的复杂序列,而且已经在实际应用中得到了验证。官方介绍提到了一些让人眼前一亮的技术亮点,比如BF16支持、Paged KV缓存等,并声称在H800 GPU上实现了惊人的3000 GB/s内存性能和580 TFLOPS计算能力。接下来,让我们用更贴近生活的语言来解析这些技术术语,看看它们究竟意味着什么。原创 2025-02-24 11:43:54 · 570 阅读 · 0 评论 -
KTransformers如何通过内核级优化、多GPU并行策略和稀疏注意力等技术显著加速大语言模型的推理速度?
通过上述技术的综合应用,KTransformers显著提升了大语言模型的推理速度,降低了硬件门槛,使得大规模模型的本地部署变得更加可行和高效。原创 2025-02-19 22:30:32 · 946 阅读 · 0 评论 -
马斯克发布的Grok3如何,大家如何评价
马斯克发布的Grok 3在技术界引起了广泛关注和讨论。根据多方证据,Grok 3被广泛认为是目前地球上最聪明的AI模型,其性能在多个领域超越了现有的竞争对手,如DeepSeek、Gemini和ChatGPT等。原创 2025-02-19 11:25:10 · 2129 阅读 · 0 评论 -
Google的可编程搜索引擎是什么,如何与AI结合?
Google的可编程搜索引擎(Programmable Search Engine,简称PSE)是一种允许用户根据特定需求和偏好定制搜索功能的工具。它基于Google的核心搜索技术,提供高度定制化、精准搜索、广告支持、多语言支持和细粒度控制等功能。原创 2025-02-18 11:33:04 · 1217 阅读 · 0 评论 -
Ollama深度使用技巧介绍
ollama 是一个开源的深度学习框架和大型语言模型(LLM)服务工具,旨在简化本地部署和运行大型语言模型的过程。原创 2025-02-13 23:57:52 · 1041 阅读 · 0 评论 -
Ollama与Vllm使用对比与优劣
Ollama和vLLM是两个用于优化大型语言模型(LLM)推理的框架,它们在性能、资源利用率、部署复杂性等方面各有优劣。原创 2025-02-13 23:55:53 · 2618 阅读 · 0 评论 -
DeepSeek Janas-Pro 图像模型
DeepSeek的Janus-Pro模型凭借其强大的多模态处理能力、生成质量和稳定性、创新的自回归框架以及开源友好性,在多模态人工智能领域展现了显著的优势。然而,其在某些特定任务上的表现仍需进一步优化,并且面临来自行业巨头的竞争压力。原创 2025-02-11 17:36:57 · 931 阅读 · 0 评论 -
大模型强化学习介绍
泛化能力是指模型在未见过的新环境中表现良好的能力。在强化学习中,泛化能力通常表现为在训练环境与测试环境之间保持一致的表现,尤其是在底层动力学或观察结果发生变化的情况下。然而,现有的强化学习方法往往容易过拟合,特别是在训练集规模较大时,模型可能无法有效泛化到新环境。原创 2025-02-11 11:54:21 · 1169 阅读 · 0 评论 -
大模型的RL训练是什么,还有哪些?
大模型的RL训练是一种高效的方法,通过结合强化学习和人类反馈数据,显著提升了模型的性能和泛化能力。然而,由于计算成本高、模型稳定性差以及对齐难度大等问题,RL训练仍需进一步优化。未来的研究方向包括降低计算成本、提高模型稳定性以及改进对齐机制等。原创 2025-02-11 11:45:16 · 785 阅读 · 0 评论 -
GPU、NPU、LPU分别是啥,还有别的吗?
GPU、NPU和LPU分别针对图形渲染、神经网络计算和自然语言处理进行了优化,各自在特定领域表现出色。此外,还有CPU、TPU、APU等其他类型的处理器,它们在通用计算、AI推理和特定任务中各有优势。随着AI技术的发展,这些处理器将在不同场景中发挥更大的作用。原创 2025-02-10 11:42:57 · 1349 阅读 · 0 评论 -
Deepseek的无损辅助负载均衡策略介绍
序列级平衡损失函数通过引入极小的平衡因子、指示函数和动态调整机制,实现了单个序列内专家负载的均衡分布。DeepSeek-V3在大规模预训练和推理任务中展现了卓越的性能和成本效益。其在长文档分析、多模态推理和科研计算等复杂任务中表现出色,并通过知识提炼技术和优化策略显著提升了推理能力。原创 2025-02-10 00:18:56 · 1619 阅读 · 2 评论 -
超火的Deepseek的MOE架构是什么?
DeepSeek V3中的多头潜在注意力机制(MLA)通过低维潜空间映射、优化注意力分配和减少KV Cache的大小,显著提升了模型的计算效率和性能。这些改进不仅使得模型在代码生成、翻译等任务中表现出色,还提高了其在长文本处理和复杂推理任务中的能力。DeepSeek MOE架构通过其独特的动态路由机制和专家模块的高效利用,在自然语言处理和计算机视觉领域展现了卓越的性能。原创 2025-02-10 00:13:52 · 1873 阅读 · 0 评论 -
Deepseek的MLA技术原理介绍
MLA技术是DeepSeek模型的重要创新点之一,通过低秩联合压缩和潜在变量映射,实现了KV缓存的有效压缩和计算效率的提升。这一技术不仅降低了推理成本,还为处理长序列数据提供了新的解决方案,为大语言模型的发展奠定了基础。原创 2025-02-10 00:04:07 · 1768 阅读 · 0 评论 -
Palatir和它的AIP
Palantir AIP(Artificial Intelligence Platform)是该公司于2023年推出的一款生成式AI产品,旨在将大型语言模型(LLM)如OpenAI的GPT-4和谷歌的BERT等集成到私有网络中,为政府和企业提供智能化支持。安全私有化部署:AIP允许用户在私有网络中部署大语言模型,确保数据安全和信息访问控制,同时支持开源、自托管和商用LLM的统一访问。智能决策支持。原创 2025-02-09 21:48:14 · 1431 阅读 · 0 评论 -
计算机领域QPM、TPM分别是什么并发指标,还有其他类似指标吗?
QPM和TPM分别用于衡量系统在每分钟内处理请求数量和事务数量,它们是高并发场景下常用的性能指标。此外,还有QPS、TPS、吞吐量、并发数等其他指标,这些指标共同构成了衡量系统并发性能的完整体系。根据具体的应用场景和需求,可以选择合适的指标来评估系统的性能和负载能力。Web服务器、数据库和分布式系统在并发指标的应用上各有侧重。Web服务器更关注响应时间和吞吐量,数据库更关注事务类型、并发性和IOPS,而分布式系统则更关注吞吐量、响应时间和负载均衡。原创 2025-02-08 23:41:27 · 1654 阅读 · 0 评论 -
什么是FP8混合精度?
FP8混合精度训练是一种高效、经济的深度学习训练方法,通过降低数据精度来提升计算效率和减少资源消耗。尽管存在一些挑战,但随着技术的不断优化和硬件的支持,FP8混合精度有望在未来的深度学习实践中发挥更大的作用。原创 2025-02-08 09:10:22 · 2426 阅读 · 0 评论 -
理解推理型大语言模型
如果您从事AI(或一般机器学习)工作,您可能熟悉模糊且备受争议的定义。术语“推理模型”也不例外。最终,某人会在论文中对其进行正式定义,但在接下来的一篇论文中又会被重新定义。在这篇文章中,我将“推理”定义为回答需要复杂多步骤生成的问题的过程,并包含中间步骤。例如,“法国的首都是什么?”这样的事实性问题问答并不涉及推理。相反,像“如果火车以每小时60英里的速度行驶3个小时,它走了多远?”这样的一道题则需要一些简单的推理过程。比如,在得出答案之前,必须认识到距离、速度和时间之间的关系。原创 2025-02-07 16:30:04 · 1076 阅读 · 0 评论