
大模型初探
文章平均质量分 77
零基础理解大模型,从利用AI解决具体一些问题开始。
月光技术杂谈
兴趣方向: 5G通信协议栈栈、linux/openwrt编程、OAI、工作利器
展开
-
西方力推的5G O-RAN难以撼动传统通信设备商
Open RAN因技术不成熟、政治干预和生态内耗宣告失败,华为、中兴凭借技术实力和市场积淀巩固优势。美国以“开放”之名行封闭之实,反而凸显中国企业在5G领域的不可替代性。通信技术竞争最终依赖技术创新与生态协作,政治操弄难撼产业规律。优先部署AI驱动的RIC应用(如流量预测xApp);从边缘网络试水多厂商O-RAN(如农村覆盖场景);联合厂商构建安全认证联盟,降低供应链风险。原创 2025-03-13 15:45:53 · 952 阅读 · 0 评论 -
Intel 平台大模型加速库 OpenVINO 安装试用
Intel 平台大模型加速库 OpenVINO 安装试用原创 2025-03-11 08:56:13 · 438 阅读 · 0 评论 -
使用AnythingLLM + 本地AI模型来构建私有知识系统 避坑问题整理
本文使用AnythingLLM 来构建私有知识系统,借助AnythingLLM 提供的总体框架 ,调用了Ollama适配的本地deepseek/llama3 模型进行推理、文本嵌入转矢量。并通过投喂语料来让聊天系统自动查询知识库作为响应的主要来源。验证结果表明, AnythingLLM 在集成度和易用性方面非常优秀,但是在响应有知识系统构建的有效性方面体验不太好。文中对验证过程遇到的问题进行了总结 。后续将考虑使用langchain基于python库进行知识 库构造的问答推理,以期改进体验原创 2025-03-11 08:54:36 · 1345 阅读 · 0 评论 -
基于langchain+llama2的本地私有大语言模型实战
LangChian 作为一个大语言模型(LLM, ***Large Language Model***)开发框架,是 LLM 应用架构的重要一环。借助 LangChain,我们可以创建各种应用程序,包括聊天机器人和智能问答工具。原创 2025-03-10 17:51:24 · 636 阅读 · 0 评论 -
基于llama_cpp 调用本地模型(llama)实现基本推理
零基础实践本地推理模型基本应用: 基于llama_cpp的本地模型调用。本文先安装 **llama_cpp** python库,再编写程序,利用其调用llama-2-7b-chat.Q4_K_M.ggu模型。原创 2025-03-10 17:49:31 · 827 阅读 · 0 评论 -
llama.cpp 利用intel集成显卡xpu加速推理
用 llama.cpp 调用 Intel 的集成显卡 XPU 来提升推理效率.原创 2025-03-07 17:27:00 · 424 阅读 · 0 评论 -
最简单的基于openAI 接口的推理大模型调用程序
从零学习ai 应用编程: hello ai world! 基于python + openai接口库实现本地推理调用原创 2025-03-07 14:15:40 · 258 阅读 · 0 评论 -
AI编程: 一个案例对比CPU和GPU在深度学习方面的性能差异
本文演示了一个实际编程案例,在一台配备Intel CPU和集成显卡的个人PC上,对比GPU/CPU在一些耗时运算方面的性能差异,并通过图表展示对比结果。涉及基本的神经网络模型 编程,如python环境配置、矩阵运算、前向传播、反向传播,基于Intel集成显卡GPU的开发环境配置等原创 2025-03-07 14:12:42 · 714 阅读 · 0 评论 -
抢先试用 字节跳动 AI 编程工具 Trae ,确实好用!!!
近日, 字节跳动发布AI编程工具Trae – 中国首个AI原生IDE!可以深度理解中文, 支持一句话开发各种应用。AI 编程工具 Trae 是字节跳动发布的国内首个 AI 原生集成开发环境。搭载 doubao-1.5-pro,支持切换 DeepSeek R1&V3。有 Chat 和 Builder 模式,能代码补全、修复 Bug、理解代码仓库,以人机协同理念,助开发者高效编程,降低开发门槛。原创 2025-03-05 15:37:38 · 1363 阅读 · 0 评论 -
Intel集成显卡 如何玩转AI 神器pytorch
最近AI太火了,老技术人备感压力,各种恶补知识。手上有一台性能还不错的老笔记本: 配置是cpu i7 cpu + Iris Xe集成显卡 ,能否用来搭建一套GPU环境来进行一些AI模型的训练和学习呢。答案是:yes。本文先重点关注基于Intel集成显卡 Iris Xe 显卡的Pytorch 开发环境搭建,后续逐步分享一些AI小项目进行实操。原创 2025-03-04 16:52:23 · 1264 阅读 · 1 评论 -
一文详解基于NarrotoAI的短剧短视频自动解说、混剪AI平台搭建
短剧剪辑不仅是内容创作的热门领域,更是学习AI技术的绝佳实践场景。通过将AI工具深度融入短剧制作的各个环节(如解说台词生成、脚本生成,自动剪辑等),创作者可在完成作品的同时,系统掌握前沿技术,文中涉及大量AI相关工具,全部可以免费获得原创 2025-02-28 17:16:19 · 1242 阅读 · 0 评论 -
联想E470 双GPU笔记本部署私有AI模型方案
手上有一台联想E470的闲置笔记本,配置如下: (Intel HD 620核显 + NVIDIA 920MX独显,i5-7200U CPU),想用它来部署并学习AI模型。原创 2025-02-18 16:42:41 · 670 阅读 · 0 评论 -
各种操作系统下 GPU型号及服务器型号查询
十六 核处理器, 16C/32T, 10.4GT/s, 22M 高速缓存, Turbo, HT (125W) DDR4-2666。原创 2025-02-17 19:10:07 · 295 阅读 · 0 评论 -
关于DeepSeek与ChatGPT等模型的原始训练数据
DeepSeek与ChatGPT等模型的原始训练数据是否一样。原创 2025-02-15 08:00:00 · 614 阅读 · 0 评论 -
Deepseek推荐的适合制作产品彩页的AI工具
▸ 配图补充:Midjourney(生成高质量产品图)▸ 细节优化:Canva免费版(图标/字体微调)▸ 主工具:天工AI彩页(快速生成标准化框架)▸ 延展设计:Designs.ai 全渠道输出。▸ 品牌适配:Designs.ai 风格匹配。▸ 框架生成:boardmix免费版。▸ 动态增强:Gamma基础模板。▸ 主视觉:Gamma国际风模板。▸ 快速迭代:触站AI方案优化。原创 2025-02-14 14:27:39 · 1615 阅读 · 0 评论 -
无须高配电脑-ChatboxAI 利用SiliconCloud 接入在线deepseek
Deepseek官方api调用 方式收费,官网提供的在线推理又经常出现”服务器繁忙,请稍后再试“的问题。本文借助本地聊会客户端 ChatboxAI, 通过SiliconCloud 平台来接入各种在线大模型,包括Deepseek.原创 2025-02-14 14:05:24 · 389 阅读 · 0 评论 -
无须高配电脑 ChatboxAI 对接deepseek 部署免费的私人AI助理(无须联网 可本地使用)
打开 Chatbox 设置,选择“使用自己的API key或本地模型。,选择模型`deepseek-r1或llama(选择 “Ollama API” 作为模型来源,ChatboxAI还支持各种其他 功能。原创 2025-02-14 13:59:28 · 325 阅读 · 2 评论 -
Deepseek给通信工程师规划的技术 变现策略
本文提供一个deepseek为技术人员支招,通过技术能力变现的案例。某技术人员背景: 10年通信行业工作经验,从事过3G,4G,5G协议栈研发及系统优化,从事过卫星通信基站协议栈研发,从事过5G终端基带芯片加速器及协议栈架构优化,喜欢钻研技术,熟悉linux/openwrt等系统下编程及性能优化,擅长C语言,有python、shell、go等编程经验。有博客 写作经验,在某博客平台上1000粉丝,发布文章150篇。基于以上背景,如何在工作之余利用技术能力创造更多价值,以下是deepseek给出的方案。原创 2025-02-12 14:17:50 · 461 阅读 · 0 评论 -
个人PC win11 快速部署deepsek本地大模型 体验AI交互
- 本文介绍了如何在个人pc上快速部署AI系统,同时下载了deepseek和llama3两种大模型,网速快的话,1个小时就能完成 部署。当然前提是pc的性能不太差。- 测试电脑配置: i7-1260P + Iris Xe + 16G内存。原创 2025-02-12 14:15:12 · 1130 阅读 · 0 评论 -
一个AI小白关于deepseek的一些疑问和解答
使用 DeepSeek 是最基础和常见的方式,满足一般性的智能交互需求。训练 DeepSeek 则是为了让模型更贴合特定用户的业务需求和数据特点,提升模型在特定场景下的性能。而私有部署 DeepSeek 通常是在完成训练后,将模型部署在私有环境中,以便在安全可控的前提下,高效地使用经过定制化训练的模型为企业内部的业务系统、应用程序等提供智能支持,三者相互关联,共同为用户和企业利用 DeepSeek 技术提供了不同层次的解决方案。原创 2025-02-11 16:31:29 · 1270 阅读 · 0 评论 -
利用用个人PC搭建私有大模型(低成本、易实施的私有大模型部署方案,兼顾英语 5G协议学习与实践需求)
个人有2台电脑, 第一台: laptop cpu 12th Gen Intel® Core™ i7-1260P 2.10 GHz, GPU intel iris® Xe graphics, 第二台: MS-7D22,Intel® Core™ i5-10400F CPU @ 2.90GHz, GeForce GT 730。想利用这2台电脑部署一些入门级的私有大模型。主要用于体验 AI大模型的功能,帮助学习及理解AI模型原理, 个人知识数据库积累,5G通信研究和学习,智能交互,英语学习。原创 2025-02-11 16:26:39 · 818 阅读 · 0 评论 -
用豆包debug代码是怎样一种体验
早就听说AI可以写代码,一直不以为然。前阵用豆包生成一些简单代码段,可以参考,但是直接执行还是有各种问题。这次又遇到一个小问题,想再次试试AI写代码,并且调试代码的能力。先上结论: AI很牛,已经具备一些让人不感相信的逻辑分析能力。# 需求需求来源于折腾,没有需求就瞎折腾。帮妈妈下载了一些广场舞的视频,拷进SD卡插入Mp4视频播放器就能自动播放。但是文件顺序是乱的,不方便查找,二是某些视频需要放在前面。因此,需要给视频文件名前一个序号,这样也方便记住一些常用视频的编号,使用播放器的按键可以直接原创 2025-01-16 18:05:16 · 1040 阅读 · 0 评论 -
一步一步实操教你升级小爱音箱的智能-基于MiGPT和豆包大模型
人工智能越来越火,已经可以帮助我们处理很多实际的问题了,解答各种问题自不必说,还能生成PPT,AI绘画等等。可是家里的小爱音箱还是很弱鸡,跟大部分车机一样,只能 回答非常有限的问题。好在已经有很多案例解决了这个问题,今天我们也来尝试一下: 让小爱音箱接入大模型,由智障升级为学霸。原创 2025-01-01 21:52:01 · 6931 阅读 · 2 评论