- 博客(22)
- 资源 (9)
- 收藏
- 关注

原创 ubuntu14.04安装cuda7.0
前言为了顺利的把Caffe跑起来,昨天把公司电脑系统换成了Ubuntu14.04。其实编译Caffe很简单,麻烦的地方就在于安装各种库,尤其是cuda toolkit。百度了一下cuda在ubuntu下面的安装教程,真的是五花八门,最后找了一个很靠谱的教程。安装步骤第一步 下载cuda toolkit安装包去CUDA官网下载cuda toolkit的安装包 根据自己的
2015-05-26 20:28:13
810

原创 神经网络C++代码
前言 神经网络的理论知识上一篇博文已经介绍。本文主要是通过编程实现神经网络模型,并对给定样本集进行分类。我们知道神经网络分为输入层、隐层和输出层。各层在通过前向传播计算激活值和反向传播计算偏导数的时候,只要分清楚该层的输入、输出即能正确编程实现。 本文的C++代码主要来自于万能的网络,感谢众大神的开源精神。实验环境Visual Studio 2013
2015-05-05 12:20:45
3454

原创 Softmax回归C++实现
前言本文的实现主要是参照了Andrew NG的深度学习课程所讲的内容。理论知识上一篇博文已经介绍。C++代码来源于一个开源项目,链接地址我忘了,哪天找到了再附上。对原代码改动不大,只是进行了一些扩充。实验环境Visual Studio 2013OpenCV 2.4数据数据来自http://archive.ics.uci.edu/ml/datasets/Optical+Re
2015-04-18 16:41:02
6720
3

原创 Logistic Regression的OpenCV代码
前言本文的实现主要是参照了Andrew NG的机器学习课程所讲的内容。理论知识上一篇博文已经介绍。由于刚接触C++,代码写得比较粗糙,望见谅。实验环境Visual Studio 2013OpenCV 2.4数据本次实验数据包含了手写数字0和1,每类样本分别有20个。如下图所示:实验代码1.定义一个LogisticRegression的类:头文件 Lo
2015-04-12 18:09:01
2777
5

原创 多元线性回归OpenCV代码
前言本文的实现主要是参照了Andrew NG的机器学习课程所讲的内容。理论知识上一篇博文已经介绍。由于刚接触C++,代码写得比较粗糙,望见谅。实验环境Visual Studio 2013OpenCV 2.4实验代码1.定义一个线性回归的类Regression:头文件 Regression.h#ifndef _Regression_H_#define _
2015-04-03 18:59:53
3170
2
原创 茴香豆:企业级知识问答工具实践
茴香豆是由书生·浦语团队开发的一款开源、专门针对国内企业级使用场景设计并优化的知识问答工具。在基础 RAG 课程中我们了解到,RAG 可以有效的帮助提高 LLM 知识检索的相关性、实时性,同时避免 LLM 训练带来的巨大成本。在实际的生产和生活环境需求,对 RAG 系统的开发、部署和调优的挑战更大,如需要解决群应答、能够无关问题拒答、多渠道应答、更高的安全性挑战。因此,根据大量国内用户的实际需求,总结出了三阶段Pipeline的茴香豆知识问答助手架构,帮助企业级用户可以快速上手安装部署。茴香豆特点。
2024-08-26 13:16:17
994
原创 发布MindSearch到ModelScope创空间
1.参照当前页的指示一步一步将MindSearch部署需要的文件上传到指定的repo即可。2.在当前页点击【空间文件】查看刚才通过命令上传的文件。1.点击【设置】可以对创空间的基本信息进行设置。2.点击【设置】,可以上线应用、设置环境变量等。配置硅基流动的 API Key如下图所示。1.点击【我要创建】来创建一个应用。会出现一个未发布的应用。然后点击上线空间展示。
2024-08-22 23:58:24
315
原创 InternVL 微调实践闯关任务
InternVL 是一种用于多模态任务的深度学习模型,旨在处理和理解多种类型的数据输入,如图像和文本。它结合了视觉和语言模型,能够执行复杂的跨模态任务,比如图文匹配、图像描述生成等。通过整合视觉特征和语言信息,InternVL 可以在多模态领域取得更好的表现。对于InternVL这个模型来说,它vision模块就是一个微调过的ViT,llm模块是一个InternLM的模型。对于视觉模块来说,它的特殊之处在Dynamic High Resolution。
2024-08-19 13:10:18
1098
原创 LMDeploy 量化部署实践闯关任务
LMDeploy实现了高效的推理、可靠的量化、卓越的兼容性、便捷的服务以及有状态的推理。相比于vllm具有领先的推理性能:LMDeploy也提供了大模型量化能力:主要包括KV Cache量化和模型权重量化。LMDeploy量化方案如下:准确说,模型量化是一种优化技术,旨在减少机器学习模型的大小并提高其推理速度。量化通过将模型的权重和激活从高精度(如16位浮点数)转换为低精度(如8位整数、4位整数、甚至二值网络)来实现。那么W4A16又是什么意思呢?W4:这通常表示权重量化为4位整数(int4)。
2024-08-18 22:30:20
1008
原创 Lagent 自定义你的 Agent 智能体
1.使用 Lagent 自定义工具主要分为以下几步:继承 BaseAction 类实现简单工具的 run 方法;或者实现工具包内每个子工具的功能简单工具的 run 方法可选被 tool_api 装饰;工具包内每个子工具的功能都需要被 tool_api 装饰使用 Lagent 自定义工具主要分为以下几步:2.定义一个获取当前时间的工具类@tool_api# 获取当前日期和时间3.适配工具修改lagent/examples/internlm2_agent_web_demo.py。
2024-08-12 22:18:30
778
原创 OpenCompass 评测 InternLM-1.8B 实践
上海人工智能实验室科学家团队正式发布了大模型开源开放评测体系 “司南” (OpenCompass2.0),用于为大语言模型、多模态模型等提供一站式评测服务。OpenCompass 是面向大模型评测的一站式平台。开源可复现:提供公平、公开、可复现的大模型评测方案全面的能力维度:五大维度设计,提供 70+ 个数据集约 40 万题的的模型评测方案,全面评估模型能力丰富的模型支持:已支持 20+ HuggingFace 及 API 模型分布式高效评测。
2024-08-08 21:09:54
497
原创 llamaindex+Internlm2 RAG实践
LlamaIndex 是一个基于 LLM 的应用程序的数据框架,受益于上下文增强。这种 LLM 系统被称为 RAG 系统,代表 “检索增强生成”。检索增强生成(RAG)是一种创新的方法,它将搜索系统的检索能力与 LLM 相结合,以达到精准查询的效果。LlamaIndex 提供了必要的抽象,可以更轻松地摄取、构建和访问私有或特定领域的数据,以便将这些数据安全可靠地注入 LLM 中,以实现更准确的文本生成。
2024-08-03 11:05:43
253
原创 浦语提示词工程实践
近期相关研究发现,LLM在对比浮点数字时表现不佳,经验证,internlm2-chat-1.8b (internlm2-chat-7b)也存在这一问题,例如认为。:利用LangGPT优化提示词,使LLM输出正确结果。LLM认为两个数大小相等。
2024-08-02 23:23:30
213
原创 XTuner 微调个人小助手认知
对于 LoRA 或者 QLoRA 微调出来的模型其实并不是一个完整的模型,而是一个额外的层(Adapter),训练完的这个层最终还是要与原模型进行合并才能被正常的使用。模型转换的本质其实就是将原本使用 Pytorch 训练出来的模型权重文件转换为目前通用的 HuggingFace 格式文件,那么我们可以通过以下命令来实现一键转换。evaluation_inputs = ['请介绍一下你自己', 'Please introduce yourself'](1)列出所有预定义配置文件。
2024-07-30 13:26:05
772
原创 书生大模型全链路开源体系
随着技术的不断进步,人工智能的应用范围也在不断扩大,从简单的自动化任务到复杂的决策支持系统。中文语料数据库总数据量达2TB,英文语料数据库总数据量为400GB,均为开源数据,为模型训练提供丰富的数据支持。:书生浦语提供了全面的模型评测体系OpenCompass,支持千亿参数模型在海量数据集上的分布式评测。书生浦语全链条开放体系通过这些工具和平台,为大模型的研发和应用提供了完整的解决方案,推动了人工智能技术的创新和应用。书生浦语全链条开放体系是一个全面、系统的开源开放平台,旨在推动大模型技术的发展和应用。
2024-07-26 16:09:01
454
原创 8G 显存玩转书生大模型 Demo
在本机CMD窗口执行ssh -p 给定端口 root@ssh.intern-ai.org.cn -CNg -L {本地机器_PORT}:127.0.0.1:{开发机_PORT} -o StrictHostKeyChecking=no。InternStudio开发机已经准备好了常用的模型,路径为/root/share/new_models/Shanghai_AI_Laboratory/使用ls命令查看/root/models文件夹,可以看到已经多了一个。文件夹,即下载好的预训练模型。核心功能3:推理服务。
2024-07-26 15:28:38
470
原创 书生大模型实战营第四期-关卡2-Python 前置基础
2.Vscode连接InternStudio debug笔记。1.Python实现wordcount。按照提示一步步操作,最后连接成功。2.1 安装RemoteSSH。2.2配置远程主机信息。
2024-07-10 18:01:33
263
1
原创 书生大模型实战营四期-第一关-Linux 前置基础
3.运行hello_world.py。2.ssh远程连接开发机。4.运行Linux命令。7.运行conda命令。5.运行进程相关命令。6.运行显卡相关命令。
2024-07-10 17:13:56
312
原创 神经网络
一、概述 以监督学习为例,假设有训练样本集 ,那么神经网络算法能够提供一种复杂且非线性的假设模型 ,它具有参数 ,可以以此参数来拟合训练数据。 最简单的神经网络仅由一个“神经元”构成,以下即是这个“神经元”的示意图: 图1
2015-05-04 20:24:41
2983
转载 Softmax回归模型
原文链接: http://ufldl.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92 Softmax回归模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类标签 可以取两个以上的值。由于 logistic 回归是针对二分类问题的,因此类标记。假设函数(hypothesis functio
2015-04-18 14:48:10
1554
2
原创 Logistic Regression
Logistic Regression通常用于二分类。分类问题和回归问题的区别就在于,预测的输出值是连续还是离散。当输出值是离散的值时,叫做分类,反之则是回归。在线性回归中,我们用一个线性方程来预测第个样本对应的。很显然,这不太适合用来解决分类问题。为了达到分类的目的,在Logistic Regression中,使用了一个新的假设函数对样本是属于类别“1”还是类别“0”的概率进行预测。
2015-04-12 15:29:15
769
2
原创 线性回归
一、多元线性回归给定数据集,以及对应的取值集合,则可以用一个回归方程来描述自变量与应变量之间的关系: (1) 其中,的每个分量是线性无关的,这就意味着每个之间的相关性很小。对于一元回归来说,回归的目的就是找到一条直线,对于二元回归来说,回归的目的就是找到一个平
2015-03-28 21:28:22
850
OpenCV 2 Computer Vision Application Programming Cookbook
2013-12-27
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人