
ai技术
文章平均质量分 58
fly-iot
没什么大不了,一直写代码。
展开
-
在autodl上使用,通义千问2-VL-7B-Instruct,识别图片,比第一代识别的内容更加详细了,还可以识别到背景中的文字了。
默认上 xinf 也支持。但是运行报错。其实也可以按照官方文档的方式去研究部署。估计是代码中参数没有配置对:内存不够造成的了。原创 2024-12-09 08:18:48 · 426 阅读 · 0 评论 -
【compshare】(5):使用UCloud(优刻得)的compshare算力平台,运行stable-diffusion-3-medium-comfyui镜像,可以进行文生图,使用简便,开箱即用
运行stable-diffusion-3-medium-comfyui镜像。通过浏览器访问: http://xxx.xx.xxx.xx:8188。已经有了最新的stable-diffusion-3镜像。镜像和模型都打包在里面了,直接开箱就用。还可以导入导出自己的配置。搜索各种提示词文案。用完记得关闭服务呢!原创 2024-06-27 09:08:36 · 740 阅读 · 0 评论 -
【OrangePi】(2):香橙派OrangePi AIpro设备,安装xinference框架,运行qwen1.5大模型,api接口测试,速度不错,设备也非常精致!
【OrangePi】(2):香橙派OrangePi AIpro设备,安装xinference框架,运行qwen1.5大模型。默认的官方镜像已经配置好了ssh服务,可以直接远程登陆即可。直接使用root进行登陆就行。原创 2024-05-31 07:31:57 · 638 阅读 · 0 评论 -
【本地运行chatgpt-web】启动前端项目和service服务端项目,也是使用nodejs进行开发的。两个都运行成功才可以使用!
安装依赖,启动web。原创 2024-05-29 22:15:58 · 1119 阅读 · 0 评论 -
【compshare】(2):在compshare算力共享平台的主机上安装docker镜像和nvidia-docker方法,和普通ubuntu一样,安装好驱动之后安装nvidia-docker2即可
选择ubuntu 镜像和设置密码,可以设置随即。原创 2024-05-26 22:41:02 · 294 阅读 · 0 评论 -
【compshare】(1):推荐UCloud(优刻得)一个GPU按小时租的平台,使用实体机部署,可以方便快速的部署xinf推理框架并提供web展示,部署qwen大模型,特别方便
专注于提供高性价比算力资源,海量GPU,一键部署,即算即用,让AI训练、深度学习、科研计算效率翻倍。需要选择 ubuntu 版本,可以支持最高 12.4 的cuda驱动。测试qwen 大模型速度。因为运行的方式不一样,不使用了需要删除应用。但是界面启动后需要等待下驱动安装。模型之能运行一个,重启再运行即可。下载速度还是非常快的。否则还是会产生费用。是独享的模型创建的。原创 2024-05-26 20:40:08 · 1206 阅读 · 0 评论 -
【LocalAI】(12):本地使用CPU运行LocalAI,测试研究,语音模型已经切换到了hugging faces上了,测试zh_CN-huayan-medium.onnx中文合成成功!!
【代码】【LocalAI】(12):本地使用CPU运行LocalAI,一次运行5个能力,embedding模型,qwen-1.5-05b模型,生成图模型,语音转文字模型,文字转语音(只支持英文)原创 2024-05-18 22:06:00 · 833 阅读 · 0 评论 -
【LocalAI】(11):本地使用CPU运行LocalAI,一次运行5个能力,embedding模型,qwen-1.5-05b模型,生成图模型,语音转文字模型,文字转语音(只支持英文)
【代码】【LocalAI】(11):本地使用CPU运行LocalAI,一次运行4个大模型,embedding模型,qwen-1.5-05b模型,生成图模型,语音转文字模型。原创 2024-05-18 16:57:49 · 924 阅读 · 0 评论 -
【OrangePi】(1):香橙派联合华为精心打造OrangePi AIpro(8T)的硬件,搭载昇腾AI芯片,8TOPS算力...
树莓派4,上面的ollama qwen 大模型测速,0.5b速度 9.6 words/s,1.8b速度 2.8 words/s。硬件还是不错的,也是arm的芯片。理论上可以支持 localai的代码运行。不知道 OrangePi AIpro(8T) 的性能咋样了。香橙派联合华为精心打造,建设人工智能新生态。ubuntu使用的是22.03 的镜像。原创 2024-05-07 23:26:33 · 376 阅读 · 0 评论 -
【LocalAI】(10):在autodl上编译embeddings.cpp项目,转换bge-base-zh-v1.5模型成ggml格式,本地运行main成功
LocalAI的项目里面的embedding 是 bert embedding.不支持BGE 模型,有大神给改造支持了BGE的模型了。原创 2024-05-01 13:27:47 · 607 阅读 · 0 评论 -
【LocalAI】(9):本地使用CPU运行LocalAI,一次运行4个大模型,embedding模型,qwen-1.5-05b模型,生成图模型,语音转文字模型
【LocalAI】(9):本地使用CPU运行LocalAI,一次运行4个大模型,embedding模型,qwen-1.5-05b模型,生成图模型,语音转文字模型。它允许您在本地使用消费级硬件运行 LLM(不仅如此),支持与 ggml 格式兼容的多个模型系列。支持CPU硬件/GPU硬件。LocalAI 是一个用于本地推理的,与 OpenAI API 规范兼容的 REST API。替换了镜像里面的aio 文件夹。把模型都使用国内镜像进行下载地址替换了。使用了modescope 下载地址。原创 2024-05-01 12:44:21 · 1620 阅读 · 0 评论 -
【LocalAI】(6):在autodl上使用4090部署LocalAIGPU版本,成功运行qwen-1.5-32b大模型,占用显存18G,速度 84 tokens / s
【LocalAI】(6):在autodl上使用4090部署LocalAIGPU版本,成功运行qwen-1.5-32b大模型,占用显存18G,速度 84t/s。它允许您在本地使用消费级硬件运行 LLM(不仅如此),支持与 ggml 格式兼容的多个模型系列。支持CPU硬件/GPU硬件。LocalAI 是一个用于本地推理的,与 OpenAI API 规范兼容的 REST API。24G的显存占用了 18G,同时速度还可以。配置成功之后就可以启动了。原创 2024-04-20 23:55:23 · 2218 阅读 · 1 评论 -
【LocalAI】(5):在autodl上使用4090Ti部署LocalAIGPU版本,成功运行qwen-1.5-14b大模型,占用显存8G,原来是cuda-11版本的原因
cuda的硬件版本是 12.4 比如 4090D 的,可以使用local-ai-cuda12-Linux-x86_64 版本。其他的情况,比如 cuda 是12.2 或这 11.8 的情况。就只能使用local-ai-cuda11-Linux-x86_64 的版本了。原创 2024-04-20 16:45:49 · 668 阅读 · 0 评论 -
【LocalAI】(3):LocalAI本地使用Model gallery,对qwen模型进行配置,使用modescope源下载,本地运行速度快。特别简单!
在linux上使用一个二进制文件,成功运行embeddings和qwen-1.5大模型,速度特别快,有gitee配置说明。它允许您在本地使用消费级硬件运行 LLM(不仅如此),支持与 ggml 格式兼容的多个模型系列。支持CPU硬件/GPU硬件。LocalAI 是一个用于本地推理的,与 OpenAI API 规范兼容的 REST API。本身localai的后端实现就是 llama.cpp ,所以也可以支持qwen大模型。modelscope.cn 进行下载,速度会更快。支持gguf的量化版本。原创 2024-04-09 09:07:38 · 1338 阅读 · 0 评论 -
【LocalAI】(3):终于研究明白了!超级简单!在linux上使用一个二进制文件LocalAI,成功运行embeddings和qwen-1.5大模型,速度特别快,有gitee配置说明
【LocalAI】(3):超级简单!在linux上使用一个二进制文件,成功运行embeddings和qwen-1.5大模型,速度特别快,有gitee配置说明。它允许您在本地使用消费级硬件运行 LLM(不仅如此),支持与 ggml 格式兼容的多个模型系列。支持CPU硬件/GPU硬件。LocalAI 是一个用于本地推理的,与 OpenAI API 规范兼容的 REST API。原创 2024-04-09 09:00:21 · 1181 阅读 · 0 评论 -
【ai技术】(4):在树莓派上,使用qwen0.5b大模型+chatgptweb,搭建本地大模型聊天环境,速度飞快,非常不错!
特别注意是 docker-compose-linux-armv7 版本,linux版本。安装docker 和 docker-compose 命令。原创 2024-03-23 12:40:30 · 3009 阅读 · 0 评论 -
【ai技术】(3):树莓派4,成功安装ollama软件,内存4G,推荐使用命令行界面安装,使用raspi-config配置wifi,运行速度飞快
【代码】【ai技术】(3):树莓派4,成功安装ollama软件,内存4G,推荐使用命令行界面安装,使用raspi-config配置wifi,运行速度飞快。原创 2024-03-21 22:07:47 · 2454 阅读 · 0 评论 -
【ai技术】(2):树莓派3,使用的是armv7的版本,不支持ollama安装,内存1G,推荐使用命令行界面安装,使用raspi-config配置wifi,老设备了运行不了图形界面
树莓派3,安装ollama本地运行ollama大模型,测试速度。原创 2024-03-18 09:04:09 · 764 阅读 · 0 评论 -
【ai技术】(1):发现一个大模型可视化项目,使用nodejs编写的,llm-viz,可以本地运行展示大模型结构。
https://github.com/bbycroft/llm-viz或者镜像:https://gitcode.com/bbycroft/llm-viz.git项目 主要项目有:LLM 可视化:运行推理的 GPT 风格 LLM 网络的 3D 互动模型。 [WIP] CPU 模拟:一个带有完整执行模型的 2D 数字电路图编辑器,展示了一个简单的基于 RISC-V 的 CPU。LLM 可视化 这个项目显示了一个 GPT 风格网络的工作实现的三维模型。也就是说,这是 OpenAI 的 GPT-2、GPT-原创 2024-03-18 08:28:49 · 1111 阅读 · 0 评论