自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 使用豆包Marscode编写贪吃蛇小游戏

本项目旨在实现一个现代化、可扩展的贪吃蛇游戏,结合前端技术和用户交互设计,提升游戏体验,并允许用户自定义游戏参数,如速度、分数显示等。通过使用HTML、CSS和JavaScript技术,本项目成功实现了一个简单且可互动的贪吃蛇游戏,提供了基本的游戏玩法和自定义选项。随着技术的进一步发展,本游戏可进一步优化,加入更多创新功能如AI对战和排行榜系统,提升玩家的整体体验。虽然目前贪吃蛇游戏的设计没有直接涉及人工智能(AI),但未来可以通过引入AI技术进一步改进游戏的体验。

2025-01-01 03:03:39 666

原创 MarsCode(豆包)AI辅助编程

请你基于html、tailwind css和javascript,帮我设计一个“井字棋游戏”。要求UI简洁美观大方,同时具有呼吸感,人类玩家以及电脑玩家放置棋子,游戏胜负平局判定条件能够完美实现。要求UI简洁美观大方,同时具有呼吸感,点击开始计时、点击暂停计时和重置计时的功能能够完美实现。在AI创作时,可能不能一次性跑通项目,需要多次跟AI进行交互,把出现的问题用文字描述清楚,发送给AI,AI生成新的代码,替换后成功。3.进入项目界面(界面介绍)按钮创建项目,可以修改。点击下方链接进入官网。

2024-12-31 21:30:09 1054

原创 大模型显存占用计算

为了详细说明模型的参数数量和每个参数在显存中占用的空间大小,我们以。每个参数的显存占用。

2024-09-16 12:23:50 619

原创 Transformer模型量化Quantization 笔记

为了详细说明模型的参数数量和每个参数在显存中占用的空间大小,我们以 facebook OPT-6.7B 模型为例。逐步推理计算过程:1. 估计参数总量:OPT-6.7B 模型指一个含有大约 6.7 Billion(67亿)个参数的模型。2. 计算单个参数的显存占用:OPT-6.7B 模型默认使用 Float16,每个参数占用16位(即2字节)的显存。3. 计算总显存占用 = 参数总量 × 每个参数的显存占用。代入公式计算:67亿参数×2字节/参数=134亿字节=13.4×109字节。

2024-09-12 00:30:11 863

原创 transformer pipeline 的使用

可以用一下代码进行查询。

2024-09-08 15:37:42 2129

原创 Qwen2技术报告读后感

Qwen2 系列模型通过优化预训练数据、采用专家混合架构、引入新颖的长上下文处理机制,以及在后训练阶段结合人类反馈强化学习,显著提升了模型在生成、推理和多语言处理等任务中的表现。稠密模型和MOE模型的区别,两个模型架构分别介绍一下稠密模型是一种架构简单且稳定的模型,适合需要一致计算能力的任务,但在处理超大规模模型时,计算和内存成本高。MoE模型通过动态激活部分专家网络,提高了模型的计算效率和扩展性,适合处理复杂任务和大规模模型,但训练复杂性较高,推理结果可能不如稠密模型稳定。在Qwen2。

2024-09-07 13:40:47 1654

原创 OpenCompass 评测 InternLM-1.8B 实践-材料提交

确保按照上述步骤正确安装 OpenCompass 并准备好数据集后,可以通过以下命令评测 InternLM-Chat-7B 模型在 C-Eval 数据集上的性能。由于 OpenCompass 默认并行启动评估过程,我们可以在第一次运行时以。# 列出所有跟 internlm 及 ceval 相关的配置。# 将会在opencompass下看到data文件夹。模式下,任务将按顺序执行,并实时打印输出。模式启动评估,并检查是否存在问题。# 解压评测数据集到 data/ 处。

2024-08-09 18:18:33 508

原创 XTuner微调个人小助手认知

对于全量微调的模型(full)其实是不需要进行整合这一步的,因为全量微调修改的是原模型的权重而非微调一个新的 Adapter ,因此是不需要进行模型整合的。比如我们这里微调的是书生·浦语的模型,我们就可以匹配搜索。在 PART 1 的部分,由于我们不再需要在 HuggingFace 上自动下载模型,因此我们先要更换模型的路径以及数据集的路径为我们本地的路径。,在使用前我们需要准备好三个路径,包括原模型的路径、训练好的 Adapter 层的(模型格式转换后的)路径以及最终保存的路径。我们可以添加自己的输入。

2024-08-09 02:25:08 404

原创 InternLM + LlamaIndex RAG 实践

给模型注入新知识的方式,可以简单分为两种方式,一种是内部的,即更新模型的权重,另一个就是外部的方式,给模型注入格外的上下文或者说外部信息,不改变它的的权重。st.session_state.messages = [{"role": "assistant", "content": "你好,我是你的助手,有什么我可以帮助你的吗?st.session_state.messages = [{"role": "assistant", "content": "你好,我是你的助手,有什么我可以帮助你的吗?

2024-08-08 19:25:22 780

原创 LangGPT结构化提示词编写实践

提示工程是一种通过设计和调整输入(Prompts)来改善模型性能或控制其输出结果的技术。在模型回复的过程中,首先获取用户输入的文本,然后处理文本特征并根据输入文本特征预测之后的文本,原理为。指令要清晰提供参考内容复杂的任务拆分成子任务给 LLM“思考”时间(给出过程)使用外部工具系统性测试变化。

2024-08-08 13:00:32 833

原创 茴香豆“:零代码搭建你的 RAG 智能助理

RAG(Retrieval Augmented Generation)技术,通过检索与用户输入相关的信息片段,并结合来生成更准确、更丰富的回答。解决 LLMs 在处理知识密集型任务时可能遇到的挑战, 如幻觉、知识过时和缺乏透明、可追溯的推理过程等。提供更准确的回答、降低推理成本、实现外部记忆。

2024-07-26 19:53:37 1615

原创 玩转书生大模型-demo

InternLM (书生·浦语) is a conversational language model that is developed by Shanghai AI Laboratory (上海人工智能实验室). It is designed to be helpful, honest, and harmless.# 与 studio-conda 等效的配置方案。# save_dir是模型保存到本地的目录。通过左侧文件夹栏目,双击进入。配置完成后,进入到新创建的。# 创建保存模型目录。

2024-07-25 22:39:52 696

原创 书生·浦语大模型全链路开源开放体系笔记

6. 工具体系:为了简化从模型到应用的过程,开发了全链条的工具体系并开源。这些工具支持从数据准备、模型训练、微调、部署到评测的整个过程,旨在帮助开发者和研究者更容易地使用和开发大模型应用。2. 书生浦语大模型的特点:书生浦语大模型是一个全链条的开源体系,支持长达20万汉字的输入,是全球大模型产品中支持的最长上下文输入长度。包括升级千亿参数大模型、支持8K语境、推出全免费商用的7B开源模型和全链条工具体系、发布多模态预训练语料库、升级对话模型等。CompassHub基准社区。微调:增量续训、有监督微调。

2024-07-25 19:57:01 218

原创 Python 关卡

在开发机中创建一个python_taks1.py 文件。# 遍历单词列表并更新字典中的计数。# 返回包含单词计数的字典。

2024-07-13 01:53:15 299 1

原创 Linux+InternStudio 关卡(test)

根据Linux+InternStudio 关卡文档。

2024-07-13 00:40:44 112

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除