- 博客(19)
- 收藏
- 关注
原创 与风景对话_交互式旅游推荐系统_后端热榜_19
对于每一篇文字,我们都有热点内容,因此我们可以考虑增加一个热榜的功能,由于我们的描述是大段的描述性文本,因此我们需要对其进行分词,统计词频:首先我们观察发现,我们的分出的词,有很多单个字,他们出现的频率较高,并且是无用信息,经过我们的参数验证,我们将2个字以上的数据保留:但是像年份,省略号等信息都是无用的,因此我们使用了正则表达式匹配:过滤后统计词频:输出统计信息传入文件中,对前端页面进行渲染即可:完成所有可视化部分。
2024-06-24 14:37:14
225
原创 与风景对话_交互式旅游推荐系统_API暴露_16
启动该函数,将其改为我们自己的路径。api_server.py就是配置api的。尝试连接入系统,返回消息可选流式和完整。经过post访问尝试。
2024-06-24 13:12:26
258
原创 与风景对话_交互式旅游推荐系统_SSH一下_14
在我们的项目中,出于安全考虑,我们决定采用secure shell,即ssh(安全外壳协议)作为我们可以在客户端中安全的远程连接Linux服务器设备,我们比较常用的Xshell就是基于SSH的一项范例,通过使用SSH远程连接,我们可以像操作本地机器一样擦欧总远程机器,这让我们能够简单的实现远程操作。加深对ssh的理解:使用Linux操作系统的时候,开机完成之后的第一件事就是登录用户,输入用户名然后输入密码,这个用户是Linux中已经创建的,然后密码存储在/etc/shadow中,这是本地登录的时候的过程。
2024-06-24 12:58:37
530
原创 与风景对话_交互式旅游推荐系统_API_13
为了满足更灵活的SSH使用需求,DSW提供了两种SSH连接方案:直连方式和ProxyClient方式。我们通过综合的对两种连接方式的资源依赖、使用方式和使用限制等因素的考虑,选择适合符合我们需求的连接方式。如果我们希望通过本地工具远程连接DSW实例进行我们的模型开发与训练,因此使用DSW提供的ProxyClient客户端代理工具。该工具允许我们通过SSH远程连接DSW实例,实现本地与DSW实例的连接。,将实例保存为镜像,添加的公钥或密码会持久化到实例镜像中,实例重新启动后仍有效。需要替换为实际的目录。
2024-06-24 12:57:35
1579
原创 与风景对话_交互式旅游推荐系统_API2_12
项目运行结果如下图,左边的文本框显示我们的 prompt,中间的是对话框,右边的两个参数可以调整模型的输入长度限制和模型温度,左下角可以选择模型。实现了一个使用 Flask 框架搭建的 Web 应用,通过 POST 请求向服务器发送问题、模型选择、提示文本以及生成参数,返回模型生成的回答。路由,处理 POST 请求,用于接收问题、模型选择、提示文本以及生成参数,根据模型编号选择模型进行问答。方法模型会流式输出当前回复的内容,也就是像使用 ChatGPT 那样一个字一个字的返回。方法会是一个不错的方式。
2024-06-24 12:49:00
726
原创 与风景对话_交互式旅游推荐系统_研究一下API_11
本文档介绍如何在本地部署 ChatGLM-6B 模型,并实现类似 GPT3.5 的 API 调用,以便在 Web 端调用本地部署的 ChatGLM-6B ,从给定文本材料中抽取出问答对。用户提问有关旅游的问题,大模型给出具体的旅游信息的推荐。
2024-06-24 12:47:50
390
原创 与风景对话_交互式旅游推荐系统_模型导出_10
记住要选择适配器,本来想导出到huggingface,但是好像访问不了?经过我的调研发现,我们替换掉模型路径换成这个就行。我们发现,.我们微调后的参数比之前多了8个文件。(又少了一条部署的路,只能本地部署了)总感觉有点熟悉是不是!在系统中选择导出模式。
2024-06-24 12:45:18
155
原创 与风景对话_交互式旅游推荐系统_LLM再训练_09
其中有超过10000条json数据,里面包含了每一条的攻略信息。发现其内容质量较高,重新送入模型中训练。此次模型效果更佳,且加入了多地的信息。训练完成,接下来导出模型。
2024-06-24 12:40:51
143
原创 与风景对话_交互式旅游推荐系统_LLM微调_06
LoRA技术通过引入低秩矩阵进行参数调整,减少了模型训练过程中需要更新的参数数量。相比传统的全参数微调方法,LoRA的参数更新量大大减少,极大地降低了计算成本和存储需求。因此,对于资源有限的环境,LoRA是一种更为高效的微调方法。通过LoRA,可以实现高效的多任务学习。由于其低秩矩阵更新机制,可以在一个共享的基础模型上进行多个任务的微调,这在需要同时处理多个旅游推荐场景(如不同类型的旅游目的地推荐)时尤为有用。LoRA通过低秩矩阵约束参数的更新,能够有效减少过拟合的风险。
2024-05-31 11:52:24
1622
1
原创 与风景对话_交互式旅游推荐系统_LLM微调_02
这里特别说一下,本框架不仅支持预训练(Pre-Training)、指令监督微调训练(Supervised Fine-Tuning),还是支持奖励模型训练(Reward Modeling)、PPO、DPO、ORPO等强化学习训练。的加速比,同时在广告文案生成任务上取得了更高的 Rouge 分数。结合 4 比特量化技术,LLaMA Factory 的 QLoRA 微调进一步降低了 GPU 显存消耗。微调相比,LLaMA Factory 的 LoRA 微调提供了。在了解基本使用方法后,我们将部署该工具。
2024-05-31 10:46:13
334
原创 与风景对话_交互式旅游推荐系统_LLM微调_01
与在命令行中进行微调相比,我们通过在网络上调研,选择了LLama-Factory这个可视化微调平台,该工具的特点在于其广泛的模型支持(主要涵盖大部分中文开源的大语言模型,LLM),集成了业界前沿的微调技术,并为用户提供了微调过程中所需的常用数据集。大语言模型(LLM)的微调过程历来都是一个挑战性的问题,这主要是因为微调过程不仅需要庞大的计算资源支持,还涉及到众多微调方法的尝试。:接下来,选择一个与特定目标任务紧密相关的小型数据集,用于后续的模型训练,同时,我们需要根据模型要求对其进行格式化。
2024-05-31 09:11:12
2290
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人