
大语言模型
文章平均质量分 94
清水阁散人
这个作者很懒,什么都没留下…
展开
-
02 入门——Chat models完整流程简单示例
Components目前有16个组件,如下图,具体见同时,还会演示如何将这些模块构成一个链。原创 2024-09-01 09:26:54 · 1343 阅读 · 0 评论 -
LoRA微调GLM-4、Qwen2
对于大模型微调,本质是追求通过对少量参数的高效修改,来最大化地影响模型的原始参数,以此达到针对特定下游任务的最佳适配。Lora(Low-Rank Adaptation)作为另一个当前流行且关键的方法论,提供了一种不同的途径来实现这一目标。Lora的核心思想和方法论其实具有广泛的通用性,它不仅适用于大语言模型的微调,比如大家熟知的文生图-Stable Diffusion,大量应用了Lora技术来生成特定风格的AI绘图。所以本文我们就来详细的剖析一下Lora的原理以及它是如何应用于大模型微调领域的。。原创 2024-07-22 21:19:45 · 2067 阅读 · 2 评论 -
开源大语言模型部署(GLM-4、Qwen2)
在本地运行大模型,需要先保证自己有足够的资源。大模型一般运行在GPU上,这里以GLM-4-9B和Qwen2-7B为例来说明其硬件要求情况。原创 2024-07-22 21:03:28 · 6803 阅读 · 0 评论 -
01-anaconda环境
Windows 用户如果无法直接创建名为 .condarc 的文件,可先执行 conda config --set show_channel_urls yes 生成该文件之后再修改。当利用activate pytorch 环境名 想要进入新的环境是时报错:CondaError: Run ‘conda init’ before ‘conda activate’,可通过如下方式解决。配置完成后,运行 conda clean -i 清除索引缓存,保证用的是镜像站提供的索引。原创 2024-07-22 20:56:30 · 892 阅读 · 0 评论