- 博客(17)
- 收藏
- 关注
原创 linux系统管理常用命令
模式选项:restore命令常用的模式有以不四种,这四个模式不能混用。5.uptime命令,显示系统的启动时间和平均负载。3./var/spool/mail/目录。1.vmstat命令监控系统资源。2.dmesg开机时内核检测信息。3.free命令查看内存使用状态。7.列出进程打开或使用的文件信息。5.其他目录(如安装服务的数据)6.查看系统与内核相关信息。2.restore命令恢复。1.查看系统中所有进程。2.查看系统健康状态。1./root/目录。2./home/目录。1.dump命令备份。
2024-11-28 22:37:48
222
原创 逛街(单调栈解法)
题目来源:(https://kamacoder.com/problempage.php?答案解析:利用单调栈,先从前往后,再从后往前。
2024-06-02 22:27:17
283
原创 计算机视觉面经【2】
RetinaNet 是一个用于目标检测的深度学习模型,它在 2017 年由 Facebook AI Research 的研究人员提出。SSD(Single Shot MultiBox Detector,单次多框检测器)是一种用于目标检测的深度学习方法,它在2016年由Wei Liu等人提出。RetinaNet 的结构基于一个特征金字塔网络(Feature Pyramid Network, FPN)和一个特殊的损失函数,称为焦点损失(Focal Loss)。
2024-05-09 20:19:23
1097
2
原创 计算机视觉面经【1】
在深度学习中,卷积神经网络(CNN)通常会在多个层次上提取特征,其中早期的层次捕捉边缘和纹理等低级特征,而更深的层次则捕捉更高级的语义信息。自顶向下的路径:FPN首先利用网络中更高层次(更高语义但分辨率低)的特征图,通过上采样(upsampling)来恢复其分辨率,然后将这些上采样的特征图与低层次(低语义但分辨率高)的特征图进行融合。FPN(Feature Pyramid Networks)是一种用于目标检测和图像识别的神经网络结构,它的主要作用是在不同的尺度上提取特征,以便更准确地检测不同大小的目标。
2024-05-07 20:32:51
648
2
原创 本地端口与云端服务器端口映射
由于服务器通常只暴露了用于安全远程登录的 SSH(Secure Shell)端口,如果需要访问服务器上运行的其他服务(如 web 应用)的特定端口,需要一种特殊的设置。~ 是用户主目录的简写,.ssh 是SSH配置文件的默认存储目录,id_rsa.pub 是 SSH 公钥文件的默认名称。所以,cat ~.ssh\id_rsa.pub 的意思是查看用户主目录下的 .ssh 目录中的 id_rsa.pub 文件的内容。步骤②: 您将被提示选择密钥文件的保存位置,默认情况下是在 ~/.ssh/ 目录中。
2024-01-21 14:26:26
1866
1
原创 第五课-OpenCompass 大模型评测教程
大语言模型(LLM)在理解和生成自然语言文本方面已经取得了显著的进步。随着应用场景的逐渐多样化,利用模型快速写出高质量代码,修复代码 Bug,提升开发效率等需求对大语言模型编程代码的能力提出了新的挑战。学术社区在代码大模型上发展迅速,如 Code LLaMa,WizardCoder 等在社区获得了广泛关注。那我们该如何进行代码大模型的选型?相信通过全面透明的代码能力评测,你一定可以找到最适合自己需求的代码大模型方案。
2024-01-20 21:59:20
2260
原创 书生·浦语大模型实战营作业合集
1.使用 InternLM2-Chat-7B 模型生成 300 字的小故事2.熟悉 hugging face 下载功能,使用 huggingface_hub python 包,下载 InternLM2-20B 的 config.json 文件到本地进阶:1.完成 Lagent 工具调用 Demo 创作部署使用了pythonInterpreter工具2.完成浦语·灵笔的图文理解及创作部署。
2024-01-20 21:40:51
980
原创 第五课-LMDeploy 大模型量化部署实践
LMDeploy 由MMDeploy和MMRazor团队联合开发,是涵盖了 LLM 任务的全套轻量化、部署和服务解决方案。高效推理引擎 TurboMind:基于 FasterTransformer,我们实现了高效推理引擎 TurboMind,支持 InternLM、LLaMA、vicuna等模型在 NVIDIA GPU 上的推理。**交互推理方式:**通过缓存多轮对话过程中 attention 的 k/v,记住对话历史,从而避免重复处理历史会话。多 GPU 部署和量化。
2024-01-13 20:58:53
1492
1
原创 第四课-XTuner 大模型低成本微调实战
大模型(FFT的原理,就是用特定的数据,对大模型进行训练,将W变成W,W相比W ,最大的优点就是上述特定数据领域的表现会好很多。不同的分类角度,只是侧重点不一样,对同一个大模型的微调,也不局限于某一个方案,可以多个方案一起。微调的最终目的,是能够在可控成本的前提下,尽可能地提升大模型在特定领域的能力。
2024-01-13 20:21:12
1078
1
原创 第三课-基于 InternLM 和 LangChain 搭建你的知识库
LangChain 框架是一个开源工具,通过为各种 LLM 提供通用接口来简化应用程序的开发流程,帮助开发者自由构建 LLM应用。LangChain 的核心组成模块:链(Chains):将组件组合实现端到端应用,通过一个对象封装实现一系列 LLM 操作Eg. 检索问答链,覆盖实现了 RAG(检索增强生成)的全部流程1. 数据收集本次选用由上海人工智能实验室开源的一系列大模型工具开源仓库作为语料库来源,选用上述仓库中所有的 markdown、txt 文件作为示例语料库。2. 加载数据。
2024-01-09 20:34:09
1502
原创 第二课-轻松玩转书生·浦语大模型趣味 Demo
InternLM 是一个开源的轻量级训练框架,旨在支持大模型训练而无需大量的依赖。通过单一的代码库,它支持在拥有数千个 GPU 的大型集群上进行预训练,并在单个 GPU 上进行微调,同时实现了卓越的性能优化。在 1024 个 GPU 上训练时,InternLM 可以实现近 90% 的加速效率。基于 InternLM 训练框架,上海人工智能实验室已经发布了两个开源的预训练模型:InternLM-7B 和 InternLM-20B。
2024-01-06 21:49:54
1932
1
原创 第一课-书生·浦语大模型全链路开源体系
6.应用:Lagent AgentLego。2.预训练:InternLM-Train。5.评测:OpenCompass。4.部署:LMDeploy。3.微调:XTuner。1.数据:书生·万卷。
2024-01-04 21:29:07
580
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人