- 博客(180)
- 资源 (3)
- 收藏
- 关注

原创 高可用elasticsearch集群搭建
Elasticsearch(简称为ES)是一个开源的分布式搜索和分析引擎,构建在Apache Lucene搜索引擎库之上。它提供了一个强大的全文搜索和实时分析功能,适用于大规模的数据存储、检索和分析。
2023-11-23 16:45:45
12270
8

原创 Kibana安装部署
Kibana是一个强大的开源数据可视化工具,它作为Elastic Stack(以前称为ELK Stack)中的一部分使用,与Elasticsearch紧密集成,Elasticsearch中的数据即通过 Kibana 界面向用户展示。它提供了一个直观易用的界面,帮助用户通过各种图表、图形和地图来探索、分析和理解其数据。
2023-11-23 16:25:02
12364
14
原创 Docker 国内镜像源
自 2024-06-06 开始,阿里,腾讯、中科大等国内的 Docker Hub 镜像加速器相继停止服务,总结了网友整理出来一些其他国内 Docker Hub 镜像源,经过测试可以使用。
2025-01-22 14:49:25
2383
1
原创 应用服务部署
如果docker 私有仓库是需要登入才能拉镜像的,则需要提前配置 docker 认证的secret 信息。yml 文件中包含两部分内容:部署的 deployment 服务信息和 对外暴露的 端口信息。, 这样配置好了之后,就无须在每个 deployment 上配置了。
2025-01-21 09:15:00
334
原创 Ingress-nginx 代理 https 请求
在第三方云厂商(比如阿里云、腾讯云)申请一个域名,并映射到 k8s 集群的VIP上,本案例是以 paas.vteamcloud.com 映射 到 192.168.122.135。我们需要使用 haproxy 监控 三台master的443 端口,并将流量转发 到 k8s 中的 ingress-nginx 对外暴露的端口 30443 上。可以看到,我的kuboard服务名为 kuoard-v3 , 容器端口为 80。本文以 kuboard 为例。本文介绍如何以域名的方式访问 k8s 集群中的服务。
2025-01-21 09:00:00
405
原创 多主多从高可用 kubernetes 集群部署
之前使用docker的时候,docker给我们做了很多好用的工具,现在用了containerd,管理容器我们用cri管理工具crictl,创建配置文件。至此,第一个主节点安装完毕。第一个主节点安装完毕后,集群已经建成了,其他节点无需做集群初始化、安装网络插件等操作。任何节点如果想在当前节点上使用kubectl命令,在节点加入集群后都要做如下操作。执行成功后,会看到如下信息,这段日志最好复制保存,后面会用到里面的信息。主节点加入集群,这段命令来源于集群初始化成功后的日志。
2025-01-20 15:42:22
1227
原创 AI大模型在智能客服中的应用与未来发展
随着人工智能技术的快速发展,AI大模型在各个领域中的应用不断扩大,尤其在智能客服系统中表现得尤为突出。随着技术的不断进步,AI大模型在智能客服中的应用将变得更加广泛,并在未来继续推动客户服务的创新和发展。例如,在电商客服场景中,用户可能会提出复杂的售后问题,AI大模型能够精准理解用户的需求,并给出相应的解决方案。随着AI技术的发展,未来的AI大模型将具备更强的自适应学习能力。例如,在旅游行业的客服场景中,用户可能会咨询行程安排、机票价格等问题,AI大模型能够即时生成合适的答案,避免用户等待时间过长。
2024-09-13 17:25:29
1935
原创 如何使用ChatGPT进行高效的对话生成与优化
ChatGPT在对话生成任务中表现出色,通过优化提示词和上下文管理,我们可以大大提升对话的流畅性和相关性。此外,通过调整生成参数和角色设定,模型能够在不同场景下生成更符合预期的响应。无论是在智能客服、教育还是虚拟助理领域,ChatGPT都展现出了强大的潜力。未来,随着技术的不断发展,ChatGPT在对话生成中的应用前景将更加广阔。
2024-09-10 09:13:26
1887
7
原创 AI大模型在自然语言处理中的应用与挑战
AI大模型在自然语言处理中的应用前景广阔,它通过模型的强大学习能力,在文本生成、问答系统、机器翻译等任务中展现了惊人的效果。然而,随着模型规模的不断扩大,性能、训练成本、领域适应性等方面的挑战也逐渐凸显。未来的研究和发展应重点关注模型架构优化、领域适应性提升以及与外部知识的结合,通过多种技术手段推动AI大模型在自然语言处理中的广泛应用。
2024-09-10 09:10:43
1768
原创 如何在实际应用中优化AI大模型性能
AI大模型的性能优化是一个多方面的挑战。从模型蒸馏、剪枝、量化等模型压缩技术,到数据并行、多GPU训练等并行计算策略,开发者需要根据实际应用场景的需求和计算资源限制选择合适的优化方法。在未来,随着AI技术的不断发展和计算硬件的进步,模型的性能优化将继续成为推动AI落地的重要方向。
2024-09-09 10:30:03
1138
2
原创 AI大模型的架构演进与最新发展
在Transformer之前,许多自然语言处理(NLP)任务依赖于循环神经网络(RNN)和长短期记忆网络(LSTM)来捕捉序列信息。然而,这些架构在处理长序列时效率较低。为了解决这一问题,Vaswani等人在2017年提出了Transformer架构,它完全摆脱了递归结构,转而使用“自注意力机制”来捕捉序列中的全局依赖关系。随着模型参数量的不断增长,GPT系列在生成文本的质量、上下文理解、推理能力等方面都有了显著提升。同时,模型的多模态能力和多任务学习能力也在逐步加强。
2024-09-09 09:28:52
1514
原创 AI大模型在企业应用中的前沿技术与趋势
预训练模型(Pre-trained Models, PTMs)是近年来大模型技术中的重要突破,特别是在自然语言处理领域,预训练模型通过大规模数据的预训练,学习到了丰富的语言表示,再通过微调(fine-tuning)应用到具体任务中。大模型在数据分析中的应用越来越广泛,特别是在金融、零售等领域,通过大模型对复杂数据的分析,企业可以挖掘更深层次的商业洞察。本文将探讨AI大模型在企业中的前沿技术和应用趋势,重点介绍最新的模型架构与技术突破,结合企业应用中的创新案例,探讨大模型未来的发展方向与可能面临的挑战。
2024-09-05 09:30:49
1060
13
原创 AI大模型在企业中的优化与调优策略
微调是最常见的模型调优方法。通过让一个较小的学生模型学习BERT大型模型的输出分布,我们能够在降低模型规模的同时,保持其分类性能。我们将涵盖模型调优的基本方法与技巧,详细的实战案例,以及如何在企业中监控和调整模型性能,以确保模型能够持续提供最佳效果。通过让较小的“学生模型”学习大型“教师模型”的输出分布,学生模型可以在保持高性能的同时,显著降低模型规模。在这个示例中,学生模型学习了教师模型的知识,通过结合传统的交叉熵损失和KL散度蒸馏损失,使得学生模型能够接近教师模型的性能,同时大幅减小模型的规模。
2024-09-05 09:22:47
1910
原创 AI大模型在智能客服系统中的应用
智能客服系统旨在减少人工客服的负担,提高用户问题的解决效率,并提供更为精准和个性化的服务。在企业应用中,模型的响应时间非常重要。AI大模型凭借其庞大的参数量和强大的自然语言理解能力,可以轻松处理多轮对话,并保持对话的一致性和流畅性。AI大模型通过保持对话的上下文信息,能够理解用户的问题和背景,提供更加准确的回复。通过将大型模型的知识迁移到较小的模型中,企业可以在保证性能的前提下,减少计算资源的消耗。本文将详细探讨AI大模型在智能客服系统中的应用,从系统架构到具体功能实现,分享实际的代码示例及调优策略。
2024-09-05 09:15:52
1747
原创 国产游戏行业的崛起:技术挑战与未来机遇
国产游戏行业正处于一个充满机遇与挑战的时代。随着技术水平的不断提升和全球市场的逐步拓展,国产游戏有望在未来占据更加重要的地位。然而,面对全球市场的激烈竞争,国产游戏在技术创新、质量提升和市场策略等方面依然需要不断努力。IT 技术的进步将为国产游戏行业提供强大的支撑,而如何利用这些技术创新,推动行业的发展,最终实现国产游戏的全球化崛起,是所有中国游戏开发者需要共同面对和思考的问题。
2024-09-04 09:27:10
989
原创 全能型 AI vs. 专业型 AI:谁能引领未来市场?
无论是全能型 AI 还是专业型 AI,各有其独特的优势和适用场景。在选择和开发 AI 技术时,关键在于理解用户需求和应用场景,从而选择最合适的技术路线。OpenAI 即将推出的“草莓”模型为我们展示了全能型 AI 的巨大潜力,但在一些高精度要求的领域,专业型 AI 仍然是不可或缺的工具。未来的 AI 市场,可能会更加多元化和细分化,而全能型和专业型 AI 将共同推动技术进步,服务于社会的各个层面。
2024-09-04 09:14:36
860
原创 【AI大模型】AI大模型在企业中的应用场景
ChatGPT4相比于ChatGPT3.5,有着诸多不可比拟的优势,比如图片生成、图片内容解析、GPTS开发、更智能的语言理解能力等,但是在国内使用GPT4存在网络及充值障碍等问题,如果您对ChatGPT4.0感兴趣,可以私信博主为您解决账号和环境问题。同时,如果您有一些AI技术应用的需要,也欢迎私信博主,我们聊一聊思路和解决方案,能为您解决问题,是我的荣幸!!AI大模型在企业中的应用正迅速发展,不同行业通过大模型的应用,实现了智能化转型和业务优化。金融、医疗、零售和制造等行业均受益于大模型的强大能力。
2024-09-04 09:07:16
1403
原创 【AI大模型】ChatGPT-4 对比 ChatGPT-3.5:有哪些优势
综上所述,ChatGPT-4 在多个方面优于 ChatGPT-3.5,包括理解复杂查询、处理虚假信息、上下文感知、多模态能力、插件支持以及性能和成本效益等。本文将探讨 ChatGPT-4 相较于 ChatGPT-3.5 的关键优势,重点介绍其在理解复杂查询、处理虚假信息以及增强用户体验等方面的改进。相比于 GPT-3.5,GPT-4 的 Turbo 版本在高需求应用中表现出色,并且在特定任务上优化了性能,提供了更具成本效益的解决方案 (在信息的准确性方面,ChatGPT-4 的表现优于其前身。
2024-09-04 09:06:00
1555
原创 GPT-4 vs LLaMA3.1:核心技术架构与应用场景对比
随着人工智能的发展,大型语言模型(Large Language Models, LLMs)如 GPT-4 和 LLaMA3.1 在自然语言处理(NLP)领域取得了巨大的进展。它们不仅在生成文本、翻译语言、回答问题等任务中表现出色,还在许多创新应用场景中展现了强大的适应性。本篇博客将详细介绍 GPT-4 和 LLaMA3.1 的核心技术架构、主要差异以及它们在不同应用场景中的表现与适用性,并通过代码示例展示如何在实际项目中应用这些大模型。GPT-4 是基于 Transformer 架构的生成模型。
2024-09-03 09:55:57
1288
原创 【AI大模型】使用AI大模型进行企业数据分析与决策支持
ChatGPT4相比于ChatGPT3.5,有着诸多不可比拟的优势,比如图片生成、图片内容解析、GPTS开发、更智能的语言理解能力等,但是在国内使用GPT4存在网络及充值障碍等问题,如果您对ChatGPT4.0感兴趣,可以私信博主为您解决账号和环境问题。同时,如果您有一些AI技术应用的需要,也欢迎私信博主,我们聊一聊思路和解决方案,能为您解决问题,是我的荣幸!
2024-09-03 09:46:33
1732
原创 【系统架构师软考】计算机网络知识(四)
子网掩码由连续的1和连续的0组成,左边连续的1的个数代表子网掩码的长度。TFTP,Trivial File Transfer Protocol,简单文件传输协议。SFTP,Secure File Transfer Protocol,安全文件传输协议。RARP是反向地址转换协议,它允许局域网的物理地址从网关服务器的ARP表或者。ARP是地址解析协议,由主机的IP地址确定主机MAC物理地址的一种协议。FTP,File Transfer Protocol,文件传输协议。DHCP协议和DNS协议。
2024-08-30 14:41:38
535
4
原创 【系统架构师软考】计算机体系结构(二)
SoC的特点是将许多不同的功能集成到单一的芯片中,例如处理器、内存、接口电路、数字信号处理器等。同时它又是一种技术,用以实现从确定系统功能开始,到软/硬件划分,并 完成设计的整个过程。( 从广义角度讲,SoC是一个微小型系统,如果说中央处理器(CPU)是大脑,那么SoC就是包括大脑、心 脏、眼睛和手的系统。国内外学术界一般倾向将SoC定义为将微处理器、模拟IP核、数字IP核和存储器 (或片外存储控制接口)集成在单一芯片上,它通常是客户定制的,或是面向特定用途的标准产品。),就可以检测到错误。
2024-08-29 09:15:15
844
5
原创 AI 大模型在文本生成任务中的创新应用
随着人工智能技术的快速发展,文本生成任务已经成为自然语言处理(NLP)领域的一个重要分支。从最早的基于规则的方法到如今的深度学习模型,文本生成技术在多年的演变中取得了显著的进展。特别是近年来,大型语言模型(Large Language Models, LLMs)如 GPT-3、GPT-4 和 LLaMA3.1 的出现,使得文本生成技术达到了前所未有的高度。这些模型不仅在生成质量上表现出色,还在多样性、连贯性和上下文理解能力方面有了显著的提升。
2024-08-28 13:25:16
1420
13
原创 AI编程工具合集
近年来,人工智能(AI)已经成为推动科技进步的核心动力。无论是自然语言处理、计算机视觉,还是语音识别,AI工具的应用已深入各个行业。对于开发者而言,如何高效地利用AI编程工具成为了一项重要的技能。本篇博客将深入介绍几种主流的AI编程工具,并提供实际代码示例和演示,以帮助读者在项目中快速上手这些工具。
2024-08-27 13:18:30
805
原创 【系统架构师软考】重难点划分及学习要点(一)
系统架构师软考主要涵盖综合知识、案例分析和论文三个部分,每部分的权重和考察内容各有侧重。综合知识涉及计算机体系结构、操作系统、计算机网络、数据库系统、嵌入式技术、信息安全、软件工程、项目管理等多个领域。每个领域的知识点多且杂,需要系统性复习。根据历年考察的分值分布,软件架构设计、软件工程是重中之重。案例分析主要考察考生对架构设计、系统建模、数据库缓存、嵌入式系统和Web架构等内容的掌握情况。每年都会有必答题和选答题,要求考生不仅掌握理论知识,还需具备实际解决问题的能力。
2024-08-27 11:33:30
1016
原创 Web应用加密数据传输方案
介于公司最近发布了一个面向C端用户的Web系统,为防止前端调用后端的API接口时,数据传输的内容轻易的被黑客获取,而设计的一个前后端数据加密传输方案。
2024-08-23 15:11:11
756
原创 自建CDN/WAF解决方案--GoEdge
GoEdge是一款管理分布式CDN边缘节点的开源工具软件,目的是让用户轻松地、低成本地创建CDN/WAF等应用。它不仅仅包含CDN加速功能、Web服务,还包含了多租户(用户)、日志、监控、安全(WAF)、DNS等功能;
2024-08-23 14:01:54
1231
原创 常见的系统攻击
DoS(Denial of Service)攻击:攻击者通过向服务器发送大量无效请求,消耗服务器资源,使其无法处理合法用户的请求,导致服务中断。DDoS(Distributed Denial of Service)攻击:通过分布式的方式,从多个来源同时向目标服务器发送大量流量,进一步加大攻击的强度和难度。web应用攻击是指针对 web 应用程序和相关服务的各种恶意行为,这些攻击利用 web 应用的漏洞或设计缺陷,试图获取未授权的访问、窃取数据、破坏系统功能,或者进行其他恶意操作。SQL。
2024-08-22 10:03:44
1631
3
原创 【AI大模型】-- 应用部署
这个数据可以有点偏大,我在实测过程中,部署llama3:14b的大模型,占用了仅16G内存,触发推理时会多一些,这个数据可作为参考。它特别适合大规模深度学习任务,通过高效的架构在性能和能源消耗上表现出色。:若需高速下载,尤其依赖于 GitHub 或 Docker 官方镜像,建议选择国外服务器。Google Cloud 提供 TPU 服务,允许用户根据需求使用,无需购买硬件。TPU 可以更快地完成任务,同时消耗较少的能源,降低成本。适合需要快速响应的任务,如实时图像识别和文本分析。
2024-07-29 10:00:24
3990
2
原创 ChatGPT-4o Minii 的实际应用与性能优化
未来,随着技术的不断发展和优化,相信 ChatGPT-4o Minii 将在更多领域中发挥更大的作用,为我们的生活和工作带来更多便利和创新。通过深入浅出的讲解和实际案例的展示,读者可以更好地理解和应用 ChatGPT-4o Minii 技术,为各自领域带来更多的创新和发展机会。:温度参数控制生成文本的多样性,较低的温度(如 0.2)会生成更确定的文本,较高的温度(如 0.8)则会生成更具创意的文本。:精心设计提示语,确保输入的 prompt 能够清晰传达需要生成的内容,提高生成文本的相关性和准确性。
2024-07-27 09:56:48
942
原创 ChatGPT-4o Minii 的概述与技术架构
ChatGPT-4o Minii 是 OpenAI 推出的一个小型化自然语言处理模型,旨在提供强大的对话能力,同时减少资源消耗。与大型模型相比,Minii 版本在保持高质量对话能力的同时,更加轻量化,便于在资源受限的环境中部署。基本概念:ChatGPT-4o Minii 依赖于 Transformer 架构,通过深度学习技术训练,以理解和生成自然语言。它可以进行文本生成、翻译、问答等多种任务。该模型的设计初衷是平衡性能和资源消耗,使其能够在更广泛的硬件环境中运行。特点轻量化设计。
2024-07-27 09:51:27
1763
原创 深入解析 Llama3.1 的技术架构
Llama3.1 作为一款先进的自然语言处理模型,通过其优化的模型结构、高效的训练方法和性能优化技术,展现了卓越的性能和广泛的应用场景。与其他 NLP 模型的技术对比进一步凸显了其优势。通过实际案例分析和代码示例,展示了 Llama3.1 在医疗、法律和金融等领域的应用潜力。通过本文的详细解析,希望读者对 Llama3.1 的技术架构有了深入的理解,并能够在实际应用中充分利用这一强大的 NLP 模型。
2024-07-26 09:25:54
1736
原创 Llama3.1:新一代自然语言处理模型的崛起
ChatGPT4相比于ChatGPT3.5,有着诸多不可比拟的优势,比如图片生成、图片内容解析、GPTS开发、更智能的语言理解能力等,但是在国内使用GPT4存在网络及充值障碍等问题,如果您对ChatGPT4.0感兴趣,可以私信博主为您解决账号和环境问题。同时,如果您有一些AI技术应用的需要,也欢迎私信博主,我们聊一聊思路和解决方案,能为您解决问题,是我的荣幸!自然语言处理(NLP)技术近年来取得了突飞猛进的发展,其中 Llama 系列模型作为领先的 NLP 模型之一,一直备受关注。
2024-07-26 09:16:42
1268
原创 【AI大模型】 企业级向量数据库的选择与实战
Milvus 是一款开源的向量数据库,专为高效的相似性搜索和高维数据分析设计。它支持多种索引类型,包括 IVF、HNSW 和 ANNOY,能够处理数十亿条向量数据。Milvus 还具有高可扩展性和高可用性,适合企业级应用。Faiss 是由 Facebook AI Research 开发的一款高效相似性搜索库,专为处理大型向量集合而设计。Faiss 提供了多种索引类型和优化算法,支持 CPU 和 GPU 加速,适用于需要高性能向量搜索的应用场景。
2024-07-25 16:23:41
1399
原创 【大模型应用】-- 多模态
总的来说,ViT是一种以较低的计算成本得到更精确的图片的计算方法,它有效的平衡计算复杂度和特征捕捉能力。ViT模型的产物仍然是一个图片向量,它并没有解决 图片到文本的转化过程CLIP模型CLIP(Contrastive Language-Image Pretraining)模型通过对比学习方法,将图像和文本映射到同一个向量空间中,实现了对图像和文本的联合理解。它能够有效处理图像分类、图像检索、零样本学习等任务,展现了强大的多模态处理能力。通过在大规模数据集上的预训练,CLIP具备了广泛的应用前景和潜力。
2024-07-22 11:37:44
1346
原创 【AI大模型】检索增强生成(RAG)模型在企业中的应用
RAG(Retrieval-Augmented Generation)模型由Facebook AI提出,结合了检索模型(如BM25、DPR)和生成模型(如GPT-3、BERT)的优势。RAG模型首先从大规模知识库中检索相关文档,然后利用这些文档的内容生成更为准确和相关的回答。企业知识管理系统(Knowledge Management System, KMS)旨在收集、组织和分享企业内部的知识和信息,从而提高员工的工作效率和决策质量。RAG模型在KMS中的应用,可以显著提升系统的智能化和自动化水平。
2024-07-10 17:51:39
977
原创 【AI大模型】如何在企业环境中部署GPT-3/GPT-4模型
随着自然语言处理技术的不断进步,GPT-3和GPT-4等大模型在企业中的应用越来越广泛。本文将详细介绍在企业环境中部署和使用GPT-3/GPT-4模型的步骤和注意事项,并提供具体的代码示例,帮助您快速上手。通过本文的介绍,我们了解了如何在企业环境中部署和使用GPT-3/GPT-4模型。这些最佳实践和注意事项,将帮助您在企业中更高效、更安全地应用GPT-3/GPT-4模型。通过这些实战经验,希望能为您的企业部署GPT-3/GPT-4模型提供参考和帮助,让您的企业能够充分利用人工智能技术带来的优势。
2024-07-10 16:49:54
1131
llama2模型复现&微调.zip
2024-07-26
使用VGG16网络模型训练数据和微调ResNet50训练数据进行图像识别.zip
2024-07-26
完全依靠OpenAI生成数据微调的西式翻译腔聊天风格中文大模型.zip
2024-07-26
利用《废墟图书馆》对话语料,QLoRA微调模型进行角色扮演安吉拉.zip
2024-07-26
基于中文 GPT2 预训练模型的文本分类微调.zip
2024-07-26
书生浦语大模型实战营微调部署至OpenXlab.zip
2024-07-26
Unsloth框架在Windows平台微调训练Qwen2大模型,非WSL.zip
2024-07-26
用来放原来项目的文件,方便对已经微调好的模型进行评估.zip
2024-07-26
微调预训练语言模型,用于计算两个文本之间的相似度(通过句子对分类任务转换),适用于中文文本.zip
2024-07-26
调研大语言模型,以及基于大语言模型在各个垂直领域上进行微调的应用。.zip
2024-07-26
在家装家居场景上微调的clip模型.zip
2024-07-26
Chat-甄嬛,基于ChatGLM2进行LoRA微调得到的模仿甄嬛语气的聊天语言模型。.zip
2024-07-26
论文《中文文本的幽默识别:基于大语言模型的少样本提示与监督微调》的主体代码。.zip
2024-07-26
在SMP2020的微博情绪分类任务上,微调在中文预料上预训练的BERT模型,进行文本分类。.zip
2024-07-26
大模型高效微调.zip
2024-07-26
Fine tune Model 神经网络模型微调作业.zip
2024-07-26
基于多个大模型并微调训练的图—诗歌转换器.zip
2024-07-26
开源大模型微调.zip
2024-07-26
个人基于谷歌开源的BERT编写的文本分类器(基于微调方式).zip
2024-07-26
进行模型微调.zip
2024-07-26
Qwen1.5大模型微调、基于PEFT框架LoRA微调,在数据集HC3-Chinese上实现文本分类。.zip
2024-07-26
利用训练好的Bert模型做参数微调来完成文本分类.zip
2024-07-26
大语言模型微调,Qwen2、GLM4指令微调.zip
2024-07-26
代码大模型 预训练&微调&DPO 数据处理 业界处理pipeline sota.zip
2024-07-26
基于internlm-chat-7b的保险知识大模型微调.zip
2024-07-26
ChatGLM大模型微调.zip
2024-07-26
llama,chatglm 等模型的微调.zip
2024-07-26
使用ColossalAI加速微调llama模型.zip
2024-07-26
微调1.8b模型的运行demo.zip
2024-07-26
微调垂直领域的模型,直接提取ocr识别后的字段信息.zip
2024-07-26
baichuan-7B 微调 C++ 面试大模型.zip
2024-07-26
中文文本分类,基于自定义、Pytorch的Bert预训练模型微调.zip
2024-07-26
微调internlm2模型实现针对煤矿事故和煤矿安全知识的智能问答。.zip
2024-07-26
交通垂直领域微调大模型.zip
2024-07-26
可以成功Lora微调的Qwen-VL模型.zip
2024-07-26
基于chatglm3-6b微调的大模型应用.zip
2024-07-26
开源大模型环境配置、私有化部署、lora微调、langchain.zip
2024-07-26
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人