大模型
文章平均质量分 61
大模型
Carrie_Lei
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Cursor编程-合并excel表格
本文介绍了如何用Python合并两个Excel表格的操作指南。首先需要创建merge_excel文件夹并放入员工基本信息表和绩效表。通过AI对话窗口输入prompt指令:1)编写读取两个表格前5行的Python脚本(read_first5.py);2)编写合并表格的脚本(merge_q4_2024.py),在基本信息表基础上追加2024年Q4绩效考核数据。执行后自动生成包含合并结果的新Excel文件。整个过程展示了如何利用AI辅助快速完成Excel数据处理任务。原创 2025-10-13 17:39:56 · 236 阅读 · 0 评论 -
使用ollama在windows(无显卡)部署
本文介绍了在无显卡的Windows电脑上5分钟快速部署Ollama大语言模型的极简教程。通过下载官方安装包、启动CPU模式服务后,即可运行DeepSeek等GGUF量化模型(1.5B版仅需0.8GB内存)。文章详细说明了安装步骤、模型管理命令、存储路径修改方法,并提供了CPU性能优化建议和Python调用API示例。实测在4核8G内存的办公笔记本上可流畅运行,适合普通用户快速体验本地AI对话功能。原创 2025-10-13 14:24:05 · 555 阅读 · 0 评论 -
DeepSeek在AutoDL私有化部署
摘要 本文介绍了如何在GPU实例上部署和运行DeepSeek-R1-Distill-Qwen-7B大语言模型。首先需租用配备24G显存的NVIDIA 4090 GPU实例,安装PyTorch 2.5.1框架。通过modelscope库下载模型后,使用AutoModelForCausalLM和AutoTokenizer加载模型,并提供了调用示例代码。该示例展示了如何构建对话提示,生成2000个token以内的响应。最后展示了模型对"帮我写一个快排查找法"的详细回答,包括算法原理、实现考虑和原创 2025-10-13 10:06:55 · 481 阅读 · 0 评论 -
大模型-推荐系统架构
A/B测试,新旧模型通过线上数据比例进行测试,比如新模型流量20%,旧模型流量80%,看运营数据结果。图像体系和算法引擎部分属于纯算法工程师或者NLP工作。数据采集和数据整理偏大数据,放置到关系型数据库中。大数据团队提供数据。涉及到数据埋点、采集。比如:分品类的猜你喜欢。实时模型训练,和用户数据收集调整模型。算法引擎和推荐接口为推荐工程师工作。召回、粗排、精排、重排。原创 2024-09-30 23:40:02 · 267 阅读 · 0 评论 -
大模型-自洽性(Self-Consistency)
在训练过程中采用一致性增强技术,如对比学习、多任务学习等。推理和生成中使用自洽推理策略,如温度调节、束搜索等。校准模型输出和进行一致性验证,保证逻辑上不产生矛盾。利用模型集成和投票机制,增强预测结果的一致性。跨模态应用中进行模态对齐,确保不同输入模态的自洽性。这些方法可以帮助提高AI系统的稳定性和可靠性,确保其在处理复杂任务时前后一致。原创 2024-09-25 10:10:44 · 3759 阅读 · 0 评论 -
大模型-通过DevAGI调用OpenAI接口
【代码】大模型-通过DevAGI调用OpenAI接口。原创 2024-09-25 09:08:24 · 660 阅读 · 0 评论 -
大模型-基于腾讯云Hai实现小程序AI绘画(未完)
基于腾讯云的Hai(Hybrid AI,混合智能)平台,可以实现一个小程序的AI绘画功能。Hai提供了许多AI服务,包括图像生成、智能处理等,可以集成到小程序中。原创 2024-09-24 17:01:16 · 1306 阅读 · 0 评论 -
大模型-实战腾讯云Hai使用AI绘画
打开JupterLab实验室,上传训练好的模型到stable-diffusion目录下。在webUI里面选择上传的模型进行训练。添加实例名称itcast_sd.创建成功。2分钟后创建成功,点击获取详情。运行Gradio WebUI。输入cat with hat。选择推理用的GPU基础型。原创 2024-09-23 15:28:08 · 707 阅读 · 0 评论 -
大模型-AIGC
AIGC,全称(人工智能生成内容),是指使用人工智能技术生成各种类型的内容。它包括但不限于文本、图像、音频、视频等形式,利用机器学习、深度学习以及自然语言处理等技术,自动创作出符合需求的数字内容。原创 2024-09-22 20:19:59 · 1992 阅读 · 0 评论 -
大模型-RAG
RAG(Retrieval-Augmented Generation)是一种结合信息检索与生成模型的技术,旨在提高文本生成的准确性和上下文相关性。它特别适用于需要从大量信息中提取和生成答案的场景,比如问答系统和对话生成。原创 2024-09-21 18:20:20 · 527 阅读 · 0 评论 -
LLM-LangChain入门
LangChain 是一个用于构建大语言模型(LLMs)应用程序的框架,旨在帮助开发者轻松整合不同的数据源、API,以及执行复杂的多步推理任务。它特别适用于对话式AI、智能代理和复杂的数据处理任务。原创 2024-09-21 18:15:47 · 1065 阅读 · 0 评论 -
LLM-本地调用百度千帆API
在接入应用里面保留API Key和Secret Key。原创 2024-09-21 16:15:14 · 653 阅读 · 0 评论 -
LLM-配置虚拟试衣的新的训练集数据
在下面的训练数据集部分将下面的地址换为上面的oss地址。原创 2024-09-21 13:53:26 · 337 阅读 · 0 评论 -
LLM-实战阿里Pai平台虚拟试衣
通过添加少量的可微调参数和使用少量的数据集,快速进行模型的微调,从而为模特、动作、背景等提供广泛的生成空间。原创 2024-09-21 13:50:41 · 914 阅读 · 0 评论 -
LLM-基于Zero-shot方式实现金融信息匹配
【代码】LLM-基于Zero-shot方式实现金融信息抽取。原创 2024-09-20 11:56:55 · 520 阅读 · 0 评论 -
LLM-基于Zero-shot方式实现金融信息抽取
【代码】LLM-基于Zero-shot方式实现金融信息抽取。原创 2024-09-20 11:55:51 · 785 阅读 · 0 评论 -
大模型-基于Zero-Shot实现LLM金融文本分类
Zero-Shot” 是一个机器学习和自然语言处理 (NLP) 中的术语,指的是模型在的情况下,能够直接执行该任务。简单来说,模型无需经过该任务的特定训练,也不需要提供示例,它可以根据已有的广泛知识完成任务。这一能力对于处理新任务或在数据稀缺的情况下非常有用。原创 2024-09-20 11:13:41 · 907 阅读 · 0 评论 -
大模型-AutoDL实战调用chatglm-6b
【代码】大模型-AutoDL实战调用chatglm-6b。原创 2024-09-20 08:39:49 · 621 阅读 · 0 评论 -
大模型-在Autodl运行汉翻英.py
liam168/trans-opus-mt-zh-en 是一个基于 Hugging Face Transformers 库的机器翻译模型,专门用于中文(zh)到英文(en)的翻译任务。这个模型是基于 OPUS 语料库训练的,它使用了先进的神经网络架构来进行高质量的翻译。它可以通过 Hugging Face 的 transformers 库轻松加载和使用,适用于需要机器翻译的场景。原创 2024-09-19 12:36:58 · 522 阅读 · 0 评论 -
大模型-基于semantic_kernel的ChatMD系统
本项目旨在开发一个能够上传 MD 文件,并基于 MD内容进行问答互动的系统。用户可以上传 MD文件,系统将解析 MD内容,并允许用户通过对话框进行问答互动,获取有关 MD文件内容的信息。这份需求文档涵盖了 PDF 内容问答系统的主要功能需求、非功能需求、技术栈、接口设计、开发计划等内容,以确保项目开发顺利进行。安装 Vue CLI创建组件在 目录下创建 和 。后端实现安装 Flask 及相关依赖创建 Flask 应用在项目根目录下创建 。确保后端 Flask 代码可以正确处理并解析 MD 文原创 2024-06-03 19:34:44 · 1248 阅读 · 1 评论 -
大模型-项目-基于LangChain的ChatPDF系统
本项目旨在开发一个能够上传 PDF 文件,并基于 PDF 内容进行问答互动的系统。用户可以上传 PDF 文件,系统将解析 PDF 内容,并允许用户通过对话框进行问答互动,获取有关 PDF 文件内容的信息。安装 Vue CLI创建组件在 目录下创建 和 。后端实现安装 Flask 及相关依赖创建 Flask 应用在项目根目录下创建 。确保后端 Flask 代码可以正确处理并解析 MD 文件:运行项目部署与运行前端运行开发服务器后端运行 Flask 应用实现效果选原创 2024-06-04 14:22:13 · 1000 阅读 · 0 评论 -
AI大模型-基于简单Agent对医疗数据进行分析
【代码】基于简单Agent对医疗数据进行分析。原创 2024-06-06 17:09:21 · 894 阅读 · 0 评论 -
大模型-基于vllm部署大模型
VLLM(非常大的语言模型)在中文中通常指的是经过大量文本数据训练的神经网络模型,能够理解和生成类似人类语言的文本。这类模型是许多先进AI系统的核心,比如ChatGPT、GPT-4等。VLLM 可以执行各种任务,如自然语言处理、文本生成、翻译、问答系统等。它们在处理大量数据的情况下表现出色,能够为各种语言应用提供支持。官方网址: https://vllm.ai官方 github 地址:https://github.com/vllm-project/vllm。原创 2024-08-18 18:36:50 · 1146 阅读 · 0 评论 -
大模型-部署LLM项目
4. 页面成功访问到显示向量数据库的json网站。8. 修改verba项目中的.env内容中的。,如果使用本地的OLLAMA,也可以同时修改。文件夹,yaml文件在这个文件夹下。来运行docker。可以看到初始化的向量数据库数据,6. 进入项目文件夹,执行命令。的地址从云端到本地地址。意味着当前项目下存在。原创 2024-08-26 18:38:14 · 1246 阅读 · 1 评论
分享