自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 收藏
  • 关注

原创 与风景对话_交互式旅游推荐系统_后端热榜_19

对于每一篇文字,我们都有热点内容,因此我们可以考虑增加一个热榜的功能,由于我们的描述是大段的描述性文本,因此我们需要对其进行分词,统计词频:首先我们观察发现,我们的分出的词,有很多单个字,他们出现的频率较高,并且是无用信息,经过我们的参数验证,我们将2个字以上的数据保留:但是像年份,省略号等信息都是无用的,因此我们使用了正则表达式匹配:过滤后统计词频:输出统计信息传入文件中,对前端页面进行渲染即可:完成所有可视化部分。

2024-06-24 14:37:14 225

原创 与风景对话_交互式旅游推荐系统_后端编写_18

渲染html,每次调用时都可以获取前端数据到后端进行渲染。

2024-06-24 14:27:28 154

原创 与风景对话_交互式旅游推荐系统_前端测试_17

剩下部分交由前端同学处理。

2024-06-24 13:15:05 247

原创 与风景对话_交互式旅游推荐系统_API暴露_16

启动该函数,将其改为我们自己的路径。api_server.py就是配置api的。尝试连接入系统,返回消息可选流式和完整。经过post访问尝试。

2024-06-24 13:12:26 258

原创 与风景对话_交互式旅游推荐系统_SSH连接服务器_15

连接成功,可尝试返回信息。

2024-06-24 13:04:52 197

原创 与风景对话_交互式旅游推荐系统_SSH一下_14

在我们的项目中,出于安全考虑,我们决定采用secure shell,即ssh(安全外壳协议)作为我们可以在客户端中安全的远程连接Linux服务器设备,我们比较常用的Xshell就是基于SSH的一项范例,通过使用SSH远程连接,我们可以像操作本地机器一样擦欧总远程机器,这让我们能够简单的实现远程操作。加深对ssh的理解:使用Linux操作系统的时候,开机完成之后的第一件事就是登录用户,输入用户名然后输入密码,这个用户是Linux中已经创建的,然后密码存储在/etc/shadow中,这是本地登录的时候的过程。

2024-06-24 12:58:37 530

原创 与风景对话_交互式旅游推荐系统_API_13

为了满足更灵活的SSH使用需求,DSW提供了两种SSH连接方案:直连方式和ProxyClient方式。我们通过综合的对两种连接方式的资源依赖、使用方式和使用限制等因素的考虑,选择适合符合我们需求的连接方式。如果我们希望通过本地工具远程连接DSW实例进行我们的模型开发与训练,因此使用DSW提供的ProxyClient客户端代理工具。该工具允许我们通过SSH远程连接DSW实例,实现本地与DSW实例的连接。,将实例保存为镜像,添加的公钥或密码会持久化到实例镜像中,实例重新启动后仍有效。需要替换为实际的目录。

2024-06-24 12:57:35 1579

原创 与风景对话_交互式旅游推荐系统_API2_12

项目运行结果如下图,左边的文本框显示我们的 prompt,中间的是对话框,右边的两个参数可以调整模型的输入长度限制和模型温度,左下角可以选择模型。实现了一个使用 Flask 框架搭建的 Web 应用,通过 POST 请求向服务器发送问题、模型选择、提示文本以及生成参数,返回模型生成的回答。路由,处理 POST 请求,用于接收问题、模型选择、提示文本以及生成参数,根据模型编号选择模型进行问答。方法模型会流式输出当前回复的内容,也就是像使用 ChatGPT 那样一个字一个字的返回。方法会是一个不错的方式。

2024-06-24 12:49:00 726

原创 与风景对话_交互式旅游推荐系统_研究一下API_11

本文档介绍如何在本地部署 ChatGLM-6B 模型,并实现类似 GPT3.5 的 API 调用,以便在 Web 端调用本地部署的 ChatGLM-6B ,从给定文本材料中抽取出问答对。用户提问有关旅游的问题,大模型给出具体的旅游信息的推荐。

2024-06-24 12:47:50 390

原创 与风景对话_交互式旅游推荐系统_模型导出_10

记住要选择适配器,本来想导出到huggingface,但是好像访问不了?经过我的调研发现,我们替换掉模型路径换成这个就行。我们发现,.我们微调后的参数比之前多了8个文件。(又少了一条部署的路,只能本地部署了)总感觉有点熟悉是不是!在系统中选择导出模式。

2024-06-24 12:45:18 155

原创 与风景对话_交互式旅游推荐系统_LLM再训练_09

其中有超过10000条json数据,里面包含了每一条的攻略信息。发现其内容质量较高,重新送入模型中训练。此次模型效果更佳,且加入了多地的信息。训练完成,接下来导出模型。

2024-06-24 12:40:51 143

原创 与风景对话_交互式旅游推荐系统_后端可视化部分_08

项目架构前端页面:

2024-05-31 15:20:02 217

原创 与风景对话_交互式旅游推荐系统_前端可视化部分_07

目前仍在进行一些可视化操作。

2024-05-31 14:46:23 215

原创 与风景对话_交互式旅游推荐系统_LLM微调_06

LoRA技术通过引入低秩矩阵进行参数调整,减少了模型训练过程中需要更新的参数数量。相比传统的全参数微调方法,LoRA的参数更新量大大减少,极大地降低了计算成本和存储需求。因此,对于资源有限的环境,LoRA是一种更为高效的微调方法。通过LoRA,可以实现高效的多任务学习。由于其低秩矩阵更新机制,可以在一个共享的基础模型上进行多个任务的微调,这在需要同时处理多个旅游推荐场景(如不同类型的旅游目的地推荐)时尤为有用。LoRA通过低秩矩阵约束参数的更新,能够有效减少过拟合的风险。

2024-05-31 11:52:24 1622 1

原创 与风景对话_交互式旅游推荐系统_LLM微调_05

但是启动后发现全是ERROR。完成部署,可以准备微调。再次启动后,启动成功。

2024-05-31 11:26:27 213 1

原创 与风景对话_交互式旅游推荐系统_LLM微调_04

我们采用阿里云人工智能平台PAI来进行操作软件环境:硬件环境:新建conda环境。

2024-05-31 11:19:28 244

原创 与风景对话_交互式旅游推荐系统_LLM微调_03

耐心等待自动拉取完成,即可在文件中看到该项目。

2024-05-31 10:58:51 309

原创 与风景对话_交互式旅游推荐系统_LLM微调_02

这里特别说一下,本框架不仅支持预训练(Pre-Training)、指令监督微调训练(Supervised Fine-Tuning),还是支持奖励模型训练(Reward Modeling)、PPO、DPO、ORPO等强化学习训练。的加速比,同时在广告文案生成任务上取得了更高的 Rouge 分数。结合 4 比特量化技术,LLaMA Factory 的 QLoRA 微调进一步降低了 GPU 显存消耗。微调相比,LLaMA Factory 的 LoRA 微调提供了。在了解基本使用方法后,我们将部署该工具。

2024-05-31 10:46:13 334

原创 与风景对话_交互式旅游推荐系统_LLM微调_01

与在命令行中进行微调相比,我们通过在网络上调研,选择了LLama-Factory这个可视化微调平台,该工具的特点在于其广泛的模型支持(主要涵盖大部分中文开源的大语言模型,LLM),集成了业界前沿的微调技术,并为用户提供了微调过程中所需的常用数据集。大语言模型(LLM)的微调过程历来都是一个挑战性的问题,这主要是因为微调过程不仅需要庞大的计算资源支持,还涉及到众多微调方法的尝试。:接下来,选择一个与特定目标任务紧密相关的小型数据集,用于后续的模型训练,同时,我们需要根据模型要求对其进行格式化。

2024-05-31 09:11:12 2290 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除