自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

freewebsys的专栏

互联网技术研究GWT,ICE,Golang,Hadoop,Solr,等

  • 博客(1040)
  • 资源 (6)
  • 收藏
  • 关注

原创 cctv 还是有很多资源可以看的,不用在优酷上面搜索

cctv的《海峡两岸》大陆和台湾两边一起讨论台湾的问题,希望祖国早日统一。 中央电视台惟一的涉台时事新闻评论栏目,节目宗旨是“跟踪海峡热点,反映两岸民意”。节目分为两个版块:第一个是“热点扫描”,主要报道当日和近期台湾岛内的热点新闻;第二个是“热点透视”,当日或近期涉台热点深度报道及两岸专家对此事的评论,并对两岸各个层面的交流交往进行跟踪报道。http://tv.cctv.com/l...

2018-01-16 17:55:48 2413

原创 本站各种文章汇总

今后的时间讲精力放到 golang ,docker ,kubernetes 上面。 以后云计算是方向。博客等级等级 所需积分 V1 0 V2 100 V3 500 V4 1000 V5 2000 V6 5000 V7 10000 V8 30000 V9 50000 V10 100000 V11 200000 V12 300000 V1...

2017-04-06 20:40:48 1848

原创 推荐另外一个比较全面的股票系统:InStock股票系统,github 有 7.7K 星星,采用的是直出方式刷页面做的。非常不错,准备参考下

InStock股票系统,抓取每日股票、ETF关键数据,计算股票技术指标、筹码分布,识别K线各种形态,综合选股,内置多种选股策略,支持选股验证回测,支持自动交易,支持批量时间,运行高效,支持PC、平板、手机移动设备显示,同时提供Docker镜像方便安装,是量化投资的好帮手。基于talib、pandas 计算指标,计算高效准确。调整个别指标公式,确保结果和同花顺、通信达结果一致。非常值得学习,把股票的后链路打通了,这个一直是我的弱项。但是做股票数据深入分析不太擅长。github 有 7.7K 星星。

2025-03-05 07:45:50 517

原创 【fly-iot飞凡物联】(22):使用vue-press构建网站内容,更新模板,使用theme-hope模板,解决底部ICP备案问题,将所有也没底部都加上备案,网站 fly-iot.com

项目代码。

2025-03-01 23:08:45 308

原创 【PythonStock(40)】Python全栈股票系统8年项目:3.0修复查询BUG,解决定时任务,拆分部署docker-compose,生产环境部署,前端使用nginx运行,开启github库

使用Python开发一个web股票项目。主要使用开发语言是python。使用的lib库是pandas numpy sqlalchemy akshare stockstats bokeh等。本文的原文连接是:项目从2017年开始编写,一直还都在维护中,断断续续不,最近发现github访问经常有问题。虽然在gitee上面有了6K的星星,也不算太高。项目就是类似做了一个简单的web工具。

2025-03-01 10:24:35 1103

原创 【nginx】:给nginx增加 password 配置通过简单的方式限制登陆。使用openssl 生成密码

openssl passwd -1 -salt ‘12345678’ ##注意‘12345678’不是密码而是密码的长度。Password: ##这里输入的是密码。用户名:openssl生成的密码。

2025-02-25 07:43:21 364

原创 【openresty服务器】:源码编译openresty支持ssl,增加service系统服务,开机启动,自己本地签名证书,配置https访问

如果我们在配置文件nginx.conf中使用了正则表达式,那么在编译Nginx时就必须把PCRE库编译进Nginx,因为Nginx的HTTP模块需要靠它来解析正则表达式。zlib库用于对HTTP包的内容做gzip格式的压缩,如果我们在nginx.conf中配置了gzip on,并指定对于某些类型(content-type)的HTTP响应使用gzip来进行压缩以减少网络传输量,则在编译时就必须把zlib编译进Nginx。通过以上步骤,您可以在OpenResty中成功配置SSL,使网站支持HTTPS协议。

2025-02-11 23:10:43 603

原创 【fly-iot飞凡物联】(21):使用阿里云申请域名,绑定服务器,icp备案,使用vue-press构建网站内容,安装openresty服务器配置路径,配置ssl证书

fly-iot飞凡物联专栏:https://blog.youkuaiyun.com/freewebsys/category_12219758.html项目代码。https://gitee.com/fly-iot/fly-iot-platform找一个自己喜欢的域名申请,然后进行ICP备案。就是按照操作一步一步就行,会有人打电话通知情况。https://wanwang.aliyun.com/domain/否则会展示成这样:有便宜的服务器可以申请。https://www.aliyun.com/product/e

2025-02-11 09:08:11 1161

原创 【fly-iot飞凡物联】(20):2025年总体规划,把物联网整套技术方案和实现并落地,完成项目开发和课程录制。

完成项目开发,接口开发。把相关内容总结成文档,并录制课程。记录项目开发过程。计划录制 20-30 节课。

2025-01-25 22:51:00 1021

原创 【fly-iot飞凡物联】(19):开源飞凡物联项目重启,使用go重写后端代码,感兴趣的小伙伴可以一起参加,使用apache协议开源,招募感兴趣的小伙伴!!

fly-iot飞凡物联专栏:https://blog.youkuaiyun.com/freewebsys/category_12219758.html可以加wx:fly-iot 一起参与下。项目地址:https://gitee.com/fly-iot/fly-iot-backend-go【fly-iot】(8):开源飞凡物联项目重启,使用go重写后端代码,感兴趣的小伙伴可以一起参加,使用apache协议开源原始项目叫:ActorCloud Server,此项目为重新整理开源项目的代码关于actorcloud项目,

2025-01-10 23:05:02 700

原创 【PythonStock(39)】Python全栈股票系统:给股票系统升级到3.0使用vue+element做前端展示,修复各种BUG,整个工程项目调整拆分前后端,合并master

使用Python开发一个web股票项目。主要使用开发语言是python。使用的lib库是pandas numpy sqlalchemy akshare stockstats bokeh等。本文的原文连接是:项目从2017年开始编写,一直还都在维护中,断断续续不,最近发现github访问经常有问题。虽然在gitee上面有了6K的星星,也不算太高。项目就是类似做了一个简单的web工具。

2025-01-09 09:34:41 1842 1

原创 在autodl上使用,通义千问2-VL-7B-Instruct,识别图片,比第一代识别的内容更加详细了,还可以识别到背景中的文字了。

默认上 xinf 也支持。但是运行报错。其实也可以按照官方文档的方式去研究部署。估计是代码中参数没有配置对:内存不够造成的了。

2024-12-09 08:18:48 425

原创 【xinference】(19):在L40设备上通过Xinference框架,快速部署CogVideoX-5b模型,可以生成6秒视频,速度比409D快一点

速度不算太快,也需要快6分钟了。比4090D要快一点点。

2024-09-08 16:39:54 593

原创 【xinference】(18):在autodl上使用4090设备,通过Xinference框架,快速部署CogVideoX-5b模型,可以生成6秒视频,效果还可以,只支持英文。速度6分钟

开源的模型发展的速度还是挺快的。还是可以做制作一些有意思的视频的。

2024-09-08 09:50:54 891

原创 【xinference】(15):在compshare上,使用docker-compose运行xinference和chatgpt-web项目,配置成功!!!

【代码】【xinference】(15):在compshare上,使用docker-compose运行xinference和chatgpt-web项目,配置成功!!!

2024-07-06 23:54:17 1344

原创 【xinference】(14):在compshare上,安装nvidia-docker工具,成功启动推理框架xinference-gpu的docker镜像,并运行大模型,非常简单方便!

Compshare GPU算力平台隶属于UCloud,专注于提供高性价4090算力资源,配备独立IP,支持按时、按天、按月灵活计费,支持github、huggingface访问加速。【xinference】(14):在compshare上,使用nvidia-docker方式,成功启动推理框架xinference,并运行大模型,非常简单方便。然后就可以通过界面启动模型了,支持大语言模型,embedding模型,rerank等。UCloud(优刻得)是中国知名的中立云计算服务商,科创板上市,中国云计算第一股。

2024-07-06 22:06:16 1847

原创 【linux】使用vnc连接远程桌面,需要安装tigervnc,并在服务端期待,然后在客户端使用tigervnc-viewer进行连接即可

【代码】【linux】使用vnc连接远程桌面,需要安装tigervnc,并在服务端期待,然后在客户端使用tigervnc-viewer进行连接即可。

2024-06-27 22:22:05 758

原创 【compshare】(5):使用UCloud(优刻得)的compshare算力平台,运行stable-diffusion-3-medium-comfyui镜像,可以进行文生图,使用简便,开箱即用

运行stable-diffusion-3-medium-comfyui镜像。通过浏览器访问: http://xxx.xx.xxx.xx:8188。已经有了最新的stable-diffusion-3镜像。镜像和模型都打包在里面了,直接开箱就用。还可以导入导出自己的配置。搜索各种提示词文案。用完记得关闭服务呢!

2024-06-27 09:08:36 737

原创 【arduino】官方有了arduino plc 1.0.6版本的软件,只支持windows 版本的,也有 arduino plc 的硬件可以购买了,比较贵168元

一个是带显示屏的但是针脚少点。另外一个不带显示屏。但是带LED灯的。针脚多点。可以研究下。

2024-06-26 08:51:54 399

原创 【arduino】使用最新版本的软件2.3版本,安装设备驱动,成功上传设备到ESP32中,使用超便宜的主板16元的arduino就可以进行开发

安装中,一个是arduino nano esp32 ,另外一个才是 esp32 的小板子。如果遇到失败的情况多实验几次就行了。点亮LED灯 pin 是2。

2024-06-26 08:09:13 612

原创 【LocalAI】(13):LocalAI最新版本支持Stable diffusion 3,20亿参数图像更加细腻了,可以继续研究下

SD3 Medium 可以根据用户输入的文本描述,重点克服了文生图模型中手部和脸部的挑战,生成足以乱真的的图像。SD3 Medium 还利用其底层的 Diffusion Transformer 架构,高精度地整合了文字元素。根据介绍,Stable Diffusion 3 Medium 模型规格参数达到了 20 亿,可以给用户带来更真实的图片体验。目前用户可以从 Hugging Face 上下载该模型。Stable Diffusion 3 Medium 正式开源。

2024-06-23 22:41:03 582

原创 【xinference】(12):目前最全大模型推理框架xinference,发布0.12.2版本,支持qwen2,glm4等主流大模型推理运行,可以对外提供标准的openai的API接口做服务

可用于大语言模型(LLM),语音识别模型,多模态模型等各种模型的推理。无论你是研究者,开发者,或是数据科学家,都可以通过 Xorbits Inference 与最前沿的 AI 模型,发掘更多可能。进行推理,降低延迟,提高吞吐!🌟 模型推理,轻而易举:大语言模型,语音识别模型,多模态模型的部署流程被大大简化。支持分布式部署,通过内置的资源调度器,让不同大小的模型按需调度到不同机器,充分使用集群资源。前沿模型,应有尽有:框架内置众多中英文的前沿大语言模型,包括 baichuan,chatglm2。

2024-06-23 22:22:12 1343

原创 【xinference】(11):在compshare上使用4090D运行xinf和chatgpt-web,部署大模型GLM-4-9B大模型,占用显存18G,速度不错,也挺智能的。

GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。在语义、数学、推理、代码和知识等多方面的数据集测评中,GLM-4-9B 及其人类偏好对齐的版本 GLM-4-9B-Chat 均表现出较高的性能。本代模型增加了多语言支持,支持包括日语,韩语,德语在内的 26 种语言。【xinference】(11):在compshare上使用4090D运行xinf和chatgpt-web,部署大模型glm4-9B-chat大模型,显存18G。是python3.12 版本造成的。

2024-06-07 08:55:56 1524 1

原创 【compshare】(4):使用UCloud(优刻得)的compshare算力平台,新增加Llama-factory镜像,可以快速启动,非常方便,部署特别简单,效果不错,不用担心HF网络问题

库少了几个,可以向 compshare 反馈下。可以选择中文,进行参数修改。安装完成缺少的 包之后,就可以启动成功了。

2024-06-05 22:28:11 415

原创 【compshare】(3):使用UCloud(优刻得)的compshare算力平台,新增加SD-webui和大模型镜像,可以快速启动,非常方便,部署特别简单...

新的镜像不错,简化了部署使用,更加的方便了。可以很快的搭建SD和大模型的平台了。

2024-06-05 09:40:25 567

原创 【OrangePi】(2):香橙派OrangePi AIpro设备,安装xinference框架,运行qwen1.5大模型,api接口测试,速度不错,设备也非常精致!

【OrangePi】(2):香橙派OrangePi AIpro设备,安装xinference框架,运行qwen1.5大模型。默认的官方镜像已经配置好了ssh服务,可以直接远程登陆即可。直接使用root进行登陆就行。

2024-05-31 07:31:57 635

原创 【xinference】(10):在autodl上运行xinf和chatgpt-web配置联动,xinf运行qwen-1.5大模型做api后端,使用国内源解决nodejs安装问题。本地运行大模型方法

【xinference】(10):在autodl上运行xinf和chatgpt-web配置联动,xinf运行qwen-1.5大模型做api后端。前端使用chatgpt-web,后端使用xinference 项目做api。第二个是 service ,里面有nodejs的服务接口。配置好环境变量就可以使用 npm 安装了。第一个是web 在当前目录。然后就可以启动成功了。

2024-05-31 07:20:39 585

原创 【本地运行chatgpt-web】启动前端项目和service服务端项目,也是使用nodejs进行开发的。两个都运行成功才可以使用!

安装依赖,启动web。

2024-05-29 22:15:58 1114

原创 特别推荐!在modelscope上可以使用免费的CPU和限时的GPU啦,成功安装xinference框架,并部署qwen-1.5大模型,速度7 tokens/s

在modelscope上可以使用免费的CPU和限时的GPU啦,成功安装xinference框架,并部署qwen-1.5大模型,速度7 tokens/s空闲的时候,会被删除掉。数据不会被保存!单次最长10个小时使用!!

2024-05-29 09:02:15 1055

原创 【compshare】(2):在compshare算力共享平台的主机上安装docker镜像和nvidia-docker方法,和普通ubuntu一样,安装好驱动之后安装nvidia-docker2即可

选择ubuntu 镜像和设置密码,可以设置随即。

2024-05-26 22:41:02 293

原创 【compshare】(1):推荐UCloud(优刻得)一个GPU按小时租的平台,使用实体机部署,可以方便快速的部署xinf推理框架并提供web展示,部署qwen大模型,特别方便

专注于提供高性价比算力资源,海量GPU,一键部署,即算即用,让AI训练、深度学习、科研计算效率翻倍。需要选择 ubuntu 版本,可以支持最高 12.4 的cuda驱动。测试qwen 大模型速度。因为运行的方式不一样,不使用了需要删除应用。但是界面启动后需要等待下驱动安装。模型之能运行一个,重启再运行即可。下载速度还是非常快的。否则还是会产生费用。是独享的模型创建的。

2024-05-26 20:40:08 1206

原创 【LocalAI】(12):本地使用CPU运行LocalAI,测试研究,语音模型已经切换到了hugging faces上了,测试zh_CN-huayan-medium.onnx中文合成成功!!

【代码】【LocalAI】(12):本地使用CPU运行LocalAI,一次运行5个能力,embedding模型,qwen-1.5-05b模型,生成图模型,语音转文字模型,文字转语音(只支持英文)

2024-05-18 22:06:00 829

原创 【LocalAI】(11):本地使用CPU运行LocalAI,一次运行5个能力,embedding模型,qwen-1.5-05b模型,生成图模型,语音转文字模型,文字转语音(只支持英文)

【代码】【LocalAI】(11):本地使用CPU运行LocalAI,一次运行4个大模型,embedding模型,qwen-1.5-05b模型,生成图模型,语音转文字模型。

2024-05-18 16:57:49 921

原创 【OrangePi】(1):香橙派联合华为精心打造OrangePi AIpro(8T)的硬件,搭载昇腾AI芯片,8TOPS算力...

树莓派4,上面的ollama qwen 大模型测速,0.5b速度 9.6 words/s,1.8b速度 2.8 words/s。硬件还是不错的,也是arm的芯片。理论上可以支持 localai的代码运行。不知道 OrangePi AIpro(8T) 的性能咋样了。香橙派联合华为精心打造,建设人工智能新生态。ubuntu使用的是22.03 的镜像。

2024-05-07 23:26:33 375

原创 【LocalAI】(10):在autodl上编译embeddings.cpp项目,转换bge-base-zh-v1.5模型成ggml格式,本地运行main成功

LocalAI的项目里面的embedding 是 bert embedding.不支持BGE 模型,有大神给改造支持了BGE的模型了。

2024-05-01 13:27:47 607

原创 【LocalAI】(9):本地使用CPU运行LocalAI,一次运行4个大模型,embedding模型,qwen-1.5-05b模型,生成图模型,语音转文字模型

【LocalAI】(9):本地使用CPU运行LocalAI,一次运行4个大模型,embedding模型,qwen-1.5-05b模型,生成图模型,语音转文字模型。它允许您在本地使用消费级硬件运行 LLM(不仅如此),支持与 ggml 格式兼容的多个模型系列。支持CPU硬件/GPU硬件。LocalAI 是一个用于本地推理的,与 OpenAI API 规范兼容的 REST API。替换了镜像里面的aio 文件夹。把模型都使用国内镜像进行下载地址替换了。使用了modescope 下载地址。

2024-05-01 12:44:21 1615

原创 【LocalAI】(6):在autodl上使用4090部署LocalAIGPU版本,成功运行qwen-1.5-32b大模型,占用显存18G,速度 84 tokens / s

【LocalAI】(6):在autodl上使用4090部署LocalAIGPU版本,成功运行qwen-1.5-32b大模型,占用显存18G,速度 84t/s。它允许您在本地使用消费级硬件运行 LLM(不仅如此),支持与 ggml 格式兼容的多个模型系列。支持CPU硬件/GPU硬件。LocalAI 是一个用于本地推理的,与 OpenAI API 规范兼容的 REST API。24G的显存占用了 18G,同时速度还可以。配置成功之后就可以启动了。

2024-04-20 23:55:23 2217 1

原创 【LocalAI】(5):在autodl上使用4090Ti部署LocalAIGPU版本,成功运行qwen-1.5-14b大模型,占用显存8G,原来是cuda-11版本的原因

cuda的硬件版本是 12.4 比如 4090D 的,可以使用local-ai-cuda12-Linux-x86_64 版本。其他的情况,比如 cuda 是12.2 或这 11.8 的情况。就只能使用local-ai-cuda11-Linux-x86_64 的版本了。

2024-04-20 16:45:49 668

原创 【LocalAI】(3):LocalAI本地使用Model gallery,对qwen模型进行配置,使用modescope源下载,本地运行速度快。特别简单!

在linux上使用一个二进制文件,成功运行embeddings和qwen-1.5大模型,速度特别快,有gitee配置说明。它允许您在本地使用消费级硬件运行 LLM(不仅如此),支持与 ggml 格式兼容的多个模型系列。支持CPU硬件/GPU硬件。LocalAI 是一个用于本地推理的,与 OpenAI API 规范兼容的 REST API。本身localai的后端实现就是 llama.cpp ,所以也可以支持qwen大模型。modelscope.cn 进行下载,速度会更快。支持gguf的量化版本。

2024-04-09 09:07:38 1337

原创 【LocalAI】(3):终于研究明白了!超级简单!在linux上使用一个二进制文件LocalAI,成功运行embeddings和qwen-1.5大模型,速度特别快,有gitee配置说明

【LocalAI】(3):超级简单!在linux上使用一个二进制文件,成功运行embeddings和qwen-1.5大模型,速度特别快,有gitee配置说明。它允许您在本地使用消费级硬件运行 LLM(不仅如此),支持与 ggml 格式兼容的多个模型系列。支持CPU硬件/GPU硬件。LocalAI 是一个用于本地推理的,与 OpenAI API 规范兼容的 REST API。

2024-04-09 09:00:21 1178

预训练模型技术实践.pdf

预训练模型技术实践.pdf

2023-08-02

搜狗拼音输入法 sogoupinyin-2.3.1.0112-amd64.deb 老包

搜狗拼音输入法。sogoupinyin_2.3.1.0112_amd64.deb 这个下载资源不需要积分。搜狗的免费软件。

2022-10-19

goland-2018.2.3.good.tar.gz.ab

goland-2018.2.3.tar.gz 2018年版本,特别珍贵, goland-2018.2.3.tar.gz 2018年版本,特别珍贵。

2020-02-10

goland-2018.2.3.good.tar.gz.aa

goland-2018.2.3.tar.gz 2018年版本,特别珍贵, goland-2018.2.3.tar.gz 2018年版本,特别珍贵。

2020-02-10

arduino-1.8.11-macosx.zip(macos)

arduino IDE 工具,官网网站: https://www.arduino.cc/en/Main/Software 从官网下载后上传的。

2020-01-30

arduino-1.8.11-linux64.tar.xz(linux64)

arduino IDE 工具,官网网站: https://www.arduino.cc/en/Main/Software 从官网下载后上传的。

2020-01-30

arduino-1.8.11-linuxaarch64.tar.xz(arm64)

arduino IDE 工具,官网网站: https://www.arduino.cc/en/Main/Software 从官网下载后上传的。

2020-01-30

arduino-1.8.11-windows.exe(windows)

arduino IDE 工具,官网网站: https://www.arduino.cc/en/Main/Software 从官网下载后上传的。

2020-01-30

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除