
大模型
文章平均质量分 93
magic_ll
有空就记记,没空就休息
展开
-
【大模型】数字人 Sonic 的环境配置和使用
下面是我实际设置的路径【/opt/ai-platform/lldataset/240/modelscope/modelscope/hub/Sonic】,自己使用时修改为想要存放的路径即可。它能够通过音频驱动肖像图片生成生动的面部表情和口型动作,从而制作出高度逼真的数字人口播视频,广泛应用于虚拟主播、数字客服等场景,具有高效、低成本的特点。【使用体验】实际使用效果不会一眼假,已经很贴近真人,但整个视频中可能存在个别帧稍显不流畅,值得深入研究、测试和使用。在游戏中生成逼真的NPC表情和动作,增强游戏的沉浸感。原创 2025-03-27 21:38:13 · 1098 阅读 · 1 评论 -
【大模型】数字人 EchoMimicV2 的环境配置和使用
它能够让用户仅通过简单的音频输入,生成与声音内容相匹配的动画效果,使虚拟人物看起来更加生动。例如,在在线教育场景中,它可以通过录制好的讲解音频和教师的人物形象,生成与之同步的动态教学视频,为远程教学提供更加生动的视觉体验。在工程路径【./echomimic_v2/assets/halfbody_demo】下,给出了官方示例的图片、音频、动作。补充,当我们删除【pretrained_weights】,仅仅删除了软连接,不会影响到连接路径下的文件。该工程上传的音频,支持的是 wav格式。原创 2025-03-25 21:32:35 · 1151 阅读 · 0 评论 -
【大模型】Transformer、GPT1、GPT2、GPT3、BERT 的论文解析
GPT-3尤其引人注目,展现了强大的语言理解和生成能力。GPT-3 论文展示了大规模语言模型在预训练和少样本学习方面的强大能力,通过增加模型规模和训练数据,显著提升了模型在各种 NLP 任务上的性能。GPT-2 的成功为后续的 GPT-3 和其他大型生成模型奠定了坚实的基础,并对未来的研究方向提供了宝贵的参考。在GPT-2中要做zero-shot,所以在做下游任务时模型不能够被调整,若此时引入模型未见的符号,模型就会困惑无法得到预期结果,所以就要求模型在下游任务的输入 和预训练时候的输入要风格一致。原创 2025-03-16 18:26:12 · 1465 阅读 · 2 评论 -
【RNN神经网络】序列模型与RNN神经网络
循环神经网络(RNN)、门控循环单元(GRU)、长短期记忆网络(LSTM)以及它们的变体如深度RNN(Deep RNN)和双向RNN(Bi-directional RNN)都是不同类型的循环神经网络,它们可以作为序列到序列(Seq2Seq)模型的构建块。总结来说,RNN、LSTM、GRU、深度RNN和双向RNN是不同类型的循环神经网络结构,它们可以被用来构建Seq2Seq模型的不同部分,而不是简单的并级或包含关系。综上所述,序列模型是一种强大的机器学习模型,能够处理各种序列数据并生成有用的输出。原创 2025-03-16 17:34:45 · 818 阅读 · 0 评论 -
【大模型】Ubuntu下 fastgpt 的部署和使用
若是填入的方式,一定注意名称的正确填写,可使用命令【ollama list】查看ollama下载的模型。:支持多种文档格式(如 Word、PDF、Excel、Markdown 等)的导入,自动完成文本预处理、向量化和问答分割,节省手动训练时间。OneAPI 是一个统一的接口管理与分发系统,旨在通过提供一个单一、统一的接口,简化对多个后端服务或数据源的访问。在下图中【语义检索】中,可以进一步勾选,这里默认不变。点击【发布渠道】界面,然后【创建新链接】、【开始使用】、【复制链接】在浏览器中打开。原创 2025-02-25 22:20:30 · 1276 阅读 · 0 评论 -
【大模型】Ubuntu下安装ollama,DeepSseek-R1:32b的本地部署和运行
性能提升:经过蒸馏的 Qwen-32B 在多个基准测试中表现出色,例如在 AIME 2024 上得分 72.6%,在 MATH-500 上得分 94.3%,在 LiveCodeBench 上得分 57.2%。Qwen-32B 是学生模型:它是一个参数量较小的模型,通过学习 DeepSeek-R1 的输出来提升自己的推理能力。通过这种知识蒸馏的方式,DeepSeek-R1 的推理能力被高效地迁移到了 Qwen-32B 中,使得 Qwen-32B 在推理任务上能够达到与 DeepSeek-R1 相当的性能。原创 2025-02-07 21:56:22 · 4095 阅读 · 0 评论 -
【大模型】Langchain-Chatchat-v0.3.1 的环境配置
本项目的最新版本中可使用 Xinference、Ollama 等框架接入 GLM-4-Chat、 Qwen2-Instruct、 Llama3 等模型,依托于 langchain 框架支持通过基于 FastAPI 提供的 API 调用服务,或使用基于 Streamlit 的 WebUI 进行操作。如果你只需要一个专注于 Python 项目的依赖管理和打包工具,希望获得更好的依赖解析能力和更简洁的工作流,那么 Poetry 是一个很好的选择。生成的5个配置文件,(其他的文件是我拉取的源码,方便查看阅读。原创 2025-01-12 20:07:25 · 1659 阅读 · 2 评论 -
【大模型】LLaMA-Factory的环境配置、微调模型与测试
前言时常和朋友闲聊,时代发展这么快,在时代的洪流下,我们个人能抓住些什么呢。我问了大模型,文心一言是这样回答的:在快速发展的时代背景下,个人确实面临着诸多挑战,但同时也充满了机遇。尽管时代洪流滚滚向前,我们依然可以抓住一些关键要素,以实现个人成长和价值提升…(一些建议)… 记住,每个人的成长路径都是独一无二的,找到适合自己的方式并坚持下去才是最重要的。哈哈跟没回答一样,毕竟是一个开放命题,还是要落到个人的行动上的。先动起来吧,我的大模型的记录终于开始了。原创 2024-11-26 21:28:05 · 2701 阅读 · 0 评论 -
【大模型】Xinference的安装和部署
Xinference通过提供简单API和强大的功能,使得私有化模型的大规模部署成为可能,无论是在个人电脑还是分布式集群中,都能够发挥异构硬件的全部潜力,达到最极致的吞吐量与最低的推理延迟。:Xinference简化了包括大语言模型、多模态模型、语音识别模型等模型部署的过程,允许用户轻松一键部署自己的模型或内置的前沿开源模型。:Xinference专注于优化模型的推理性能,并支持多种类型的模型,包括深度学习模型。如下图,待参数设置OK后,点击小火箭,则下载模型和加载模型,模型下载到默认路径。原创 2024-12-29 13:13:45 · 8276 阅读 · 0 评论